AI-loven er vedtatt Her er hva som vil og ikke vil endre seg
AI-loven er vedtatt Her er hva som vil og ikke vil endre seg
AI-loven er vedtatt Her er hva som vil og ikke vil endre seg. Etter tre år hoppet AI-loven, EU sin nye omfattende AI-lov, gjennom det siste byråkratiske hinderet. Forrige uke da Europaparlamentet stemte for å godkjenne den. Dette føles også som slutten på en æra for meg personlig: Jeg var den første journalisten som fikk tak i nyheten om et tidlig utkast av AI-loven i 2021. Og har fulgt den påfølgende lobbyvirksomheten tett siden da. Men virkeligheten er at det harde arbeidet begynner nå. Loven vil tre i kraft i mai, og folk som bor i EU vil begynne å se endringer innen utgangen av året. Regulatorer må bli etablert for å håndheve loven på riktig måte, og selskaper vil ha opptil tre år på seg til å etterkomme loven.
1. Noen AI-bruksområder vil bli forbudt senere i år
Loven legger begrensninger på bruken av AI som utgjør en høy risiko for menneskers grunnleggende rettigheter. Slik som innen helsevesen, utdanning og politiarbeid. Disse vil bli ulovliggjort innen utgangen av året.
Den forbyr også noen bruksområder som anses å utgjøre en «uakseptabel risiko». Dette inkluderer noen ganske spesielle og tvetydige bruksområder. Slik som AI-systemer som benytter «subliminale, manipulerende eller villedende teknikker for å forvrenge atferd og svekke informert beslutningstaking,» eller utnytter sårbare personer. AI-loven forbyr også systemer som antar sensitive egenskaper. Slik som noen sin politiske meninger eller seksuelle orientering, og bruken av sanntids ansiktsgjenkjennelsesprogramvare på offentlige steder. Opprettelsen av ansiktsgjenkjennelsesdatabaser ved å skrape internett à la Clearview AI vil også bli ulovlig.
Det er imidlertid noen ganske store unntak. Politimyndighetene har fortsatt lov til å bruke sensitiv biometrisk data. Samt ansiktsgjenkjennelsesprogramvare på offentlige steder for å bekjempe alvorlig kriminalitet, slik som terrorisme eller kidnapping. Noen sivile rettighetsorganisasjoner, slik som digitale rettighetsorganisasjonen Access Now. Har kalt AI-loven en «fiasko for menneskerettigheter» fordi den ikke forbød kontroversielle AI-bruksområder, slik som ansiktsgjenkjennelse, direkte. Og selv om selskaper og skoler ikke har lov til å bruke programvare som hevder å gjenkjenne menneskers følelser. Kan de gjøre det hvis det er av medisinske eller sikkerhetsmessige årsaker.
2. Det vil være tydeligere når du samhandler med et AI-system
Teknologiselskaper vil bli pålagt å merke deepfakes og AI-generert innhold og varsle folk når de samhandler med en chatbot eller annet AI-system. AI-loven vil også kreve at selskaper utvikler AI-generert media på en måte som gjør det mulig å oppdage det. Dette er gode nyheter i kampen mot desinformasjon og vil gi forskning rundt vannmerking og innholdsopphav et stort løft.
Imidlertid er dette lettere sagt enn gjort, og forskningen ligger langt bak det reguleringen krever. Vannmerker er fortsatt en eksperimentell teknologi og lett å manipulere. Det er fortsatt vanskelig å pålitelig oppdage AI-generert innhold. Noen tiltak viser lovende resultater, slik som C2PA. En åpen protokoll for internett, men mye mer arbeid er nødvendig for å gjøre opprinnelsesteknikker pålitelige og for å bygge en bransjestandard.
3. Mennesker kan klage hvis de har blitt skadet av en AI
AI-loven vil etablere et nytt europeisk AI-kontor for å koordinere overholdelse, implementering og håndheving (og de ansetter). Takket være AI-loven kan borgere i EU sende inn klager om AI-systemer. Når de mistenker at de har blitt skadet av en, og kan få forklaringer på hvorfor AI-systemene tok de beslutningene de gjorde. Dette er et viktig første skritt mot å gi mennesker mer kontroll i en stadig mer automatisert verden. Imidlertid vil dette kreve at borgerne har en anstendig grad av AI-kunnskap og er klar over hvordan algoritmiske skader oppstår. For de fleste er dette fortsatt svært fremmede og abstrakte begreper.
4. AI-selskaper må være mer transparent
De fleste AI-bruksområder vil ikke kreve overholdelse av AI-loven. Det er bare AI-selskaper som utvikler teknologier innen «høyrisiko» sektorer, slik som kritisk infrastruktur eller helsevesen, som vil ha nye forpliktelser når loven fullt ut trer i kraft om tre år. Disse inkluderer bedre datavarsel, sikring av menneskelig tilsyn og vurdering av hvordan disse systemene vil påvirke menneskers rettigheter.
AI-selskaper som utvikler «generelle formål AI-modeller», slik som språkmodeller. Må også opprette og beholde teknisk dokumentasjon som viser hvordan de bygde modellen, hvordan de respekterer opphavsrettloven, og publisere en offentlig tilgjengelig oppsummering av hvilke treningsdata som ble brukt til å trene AI-modellen.
Dette er en stor endring fra den nåværende status quo, der teknologiselskaper er hemmelighetsfulle om dataene som ble brukt i modellene deres. Og vil kreve en revisjon av AI-sektorens rotete datahåndteringspraksis.
Selskapene med de kraftigste AI-modellene, slik som GPT-4 og Gemini. Vil møte mer byrdefulle krav, slik som å utføre modellvurderinger og risikovurderinger og tiltak, sikre cybersikkerhetsbeskyttelse og rapportere om hendelser der AI-systemet sviktet. Selskaper som ikke overholder vil møte store bøter eller produktene deres kan bli forbudt i EU.
Det er også verdt å merke seg at gratis åpne AI-modeller som deler alle detaljer om hvordan modellen ble bygget. Inkludert modellens arkitektur, parametere og vekter, er unntatt fra mange av forpliktelsene i AI-loven.
Samlet sett
Representerer AI-loven et betydelig skritt mot å regulere og sikre ansvarlig bruk av kunstig intelligens i Europa. Ved å kreve økt gjennomsiktighet, ansvarlighet og beskyttelse. Av grunnleggende rettigheter, søker loven å balansere innovasjon med menneskelig velferd og rettigheter. Mens det gjenstår utfordringer med implementering og håndheving. Markerer dette en milepæl i utviklingen av AI-regulering og gir et viktig rammeverk for fremtidig utvikling og bruk av AI-teknologi i EU.