Mistä tekoälylaissa on kyse?
Kirjoittajat
Emeline Banzuzi
Tietosuojajuristi
Emeline Banzuzi toimii oikeuden, teknologian ja yhteiskunnan alaan erikoistuneena juristina ja tutkijana, jolla on asiantuntemusta erityisesti tietosuojasta, tekoäly- ja datalainsäädännöstä sekä akateemisesta tutkimuksesta.
Joel Himanen
Data Scientist
Joel Himanen on monipuolinen tietojenkäsittelytieteilijä, jolla on vahva painotus kehittyneeseen analytiikkaan, koneoppimiseen ja tekoälyyn. Hänellä on aiempaa kokemusta dataan perustuvista kestävyyshankkeista sekä yksityisellä että julkisella sektorilla.
Varhaisina tunteina 9. joulukuuta, … Euroopan unioni parlamentti ja neuvosto antoivat vihdoin alustavan yhteisymmärrykseen sisällöstä Tekoälylaki (AIA). Tässä blogikirjoituksessa teemme yhteenvedon tärkeimmästä sisällöstä. … AIA ja keskustella sen mahdollisista vaikutuksistaja avoimia kysymyksiä käyttämällä esimerkkinä suurten kielimallien (LLM) kehittämistä ja käyttöönottoa.
Lyhyt versio
EUtekoälylaki tarkoituksena on ohjata tekoälyjärjestelmien kehittämistä ja käyttöönottoa EU:ssa.ja varmistaa samalla, että nämä järjestelmät ovat turvallisia ja kunnioittavat terveyttä, turvallisuutta ja perusoikeuksia ja vapauksia EU:n kansalaisista. Väliaikaisessa sopimuksessa todetaan, että laki sovelletaan kaksi vuotta sen jälkeen, kuns voimaantulon jälkeen.voimaantulosta (ts. sen jälkeen, kun se on julkaistu EU:n virallisessa lehdessä)., lyhennetty kuuteen kuukauteen kieltojen osalta. se sisältää. Säädös erityisesti vaikuttaa tekoälyjärjestelmien käyttöönottajiin, joita säännellään käyttötapauksen mukaan riskiluokan mukaan. Generatiivisen tekoälyn puolella perustavanlaatuisten mallien kehittäjät – kohtaavat merkittäviä vaatimuksiaavoimuuteen, suojatoimiin, ja testaukseen liittyen.
Kaivetaan hieman syvemmälle
Lain ensimmäinen luonnos julkaistiin huhtikuussa 2021, ja sen lopullinen versio on parhaillaan EU:n lainsäädäntömenettelyssä. Viimeisimmän yhteisymmärryksen jälkeen sekä parlamentin että neuvoston on vielä vahvistettava säädös ja siihen on tehtävä oikeudellisia ja kielellisiä tarkistuksia ennen sen virallista hyväksymistä.
Laissa ”tekoälyjärjestelmä” määritellään konepohjaiseksi järjestelmäksi, joka tuottaa eriasteisesti itsenäisesti ja nimenomaisia tai epäsuoria tavoitteita varten tuotoksia, kuten ennusteita, suosituksia tai päätöksiä, joilla voidaan vaikuttaa fyysisiin tai virtuaalisiin ympäristöihin. Asetusta sovelletaan tekoälyjärjestelmien tarjoajiin, käyttöönottajiin ja jakelijoihin sekä ”vaikutuspiiriin kuuluviin henkilöihin” eli henkilöihin tai henkilöryhmiin, joihin tekoälyjärjestelmä kohdistuu tai joihin se muuten vaikuttaa.
AIA perustaa erilaisia velvoitteita tekoälyjärjestelmien kehittäjille ja käyttöönottajille, riippuen mihin riskiluokkaan kyseinen järjestelmä mahdollisesti kuuluu. Laissa esitetään neljä riskiluokkaa, jotka ovat seuraavat:
- Hyväksymätön riski: Tekoälyjärjestelmät, jotka ovat selvä uhka yksilöiden turvallisuudelle, toimeentulolle ja oikeuksille (esim. sosiaaliseen pisteytykseen käytettävät järjestelmät ja järjestelmät, jotka käyttävät hyväkseen haavoittuvia ryhmiä, kuten lapsia). Näiden järjestelmien käyttö on kielletty.
- Korkea riski: Tekoälyjärjestelmät, jotka aiheuttavat merkittävää haittaa yksilöiden terveydelle, turvallisuudelle tai perusoikeuksille. Esimerkkejä riskialttiista tekoälyjärjestelmistä ovat kriittisen infrastruktuurin hallinnassa, koulutuksessa, työelämässä, lainvalvonnassa ja rajavalvonnassa käytettävät järjestelmät. Korkean riskin järjestelmiin sovelletaan tiukkoja velvoitteita ennen kuin ne voidaan saattaa markkinoille: näiden järjestelmien tarjoajien ja käyttöönottajien on esimerkiksi kehitettävä riskienhallintaprosessi riskien tunnistamista ja vähentämistä varten, sovellettava asianmukaisia tiedonhallinta- ja -hallintakäytäntöjä koulutus-, validointi- ja testaustietokokonaisuuksiin, mahdollistettava inhimillinen valvonta, varmistettava tekninen kestävyys ja tietoverkkoturvallisuus sekä laadittava asiakirjat, joilla osoitetaan AIA:n vaatimustenmukaisuus. (Täydellinen luettelo velvoitteista on AIA:n 9-17 artiklassa).
- Rajoitettu riski: Esimerkkejä rajoitetun riskin tekoälyjärjestelmistä ovat järjestelmät, jotka on tarkoitettu vuorovaikutukseen yksilöiden kanssa, esim. chatbotit ja syväjäljitelmät. Rajoitetun riskin tekoälyä koskevissa vaatimustenmukaisuusvelvoitteissa keskitytään avoimuuteen: näiden järjestelmien käyttäjille on selkeästi ilmoitettava, että he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa.
- Vähäinen riski: Esimerkkejä minimaalisen riskin tekoälystä ovat roskapostisuodattimet, tekoälyä tukevat videopelit ja varastonhallintajärjestelmät. AIA mahdollistaa minimaalisen riskin AI:n vapaan käytön.
Riskiluokat ovat vaihdelleet koko AIA:n laatimisvaiheissa.
Vaikutukset mallien kehittäjille ja käyttöönottajille
Tekoälymallien ja -sovellusten kehittäjät ovat luonnollisesti varsin huolissaan laista, koska se voi vaikuttaa merkittävästi kehitys- ja käyttöprosesseihin. AIA:n ehdotusvaiheen viimeistelyvaiheessa on tärkeää pohtia mahdollisia skenaarioita ja miettiä, miten laki vaikuttaisi tekoälyalan eri ryhmiin.
Tarkastellaanpa vuoden 2023 kuuminta tekoälyteemaa: Suuret kielimallit (LLM). Yksi tapa tarkastella elinikäisen oppimisen elinkaarta on jakaa se kolmeen vaiheeseen (ylävirrasta alavirtaan): perusmallin (FM) kehittäminen, hienosäätöja käyttöönotto. Mitä mahdollisia vaikutuksia tekoälylailla olisi näihin vaiheisiin?
Pohjamallin kehittäjät ovat niitä, jotka tekevät ”raskaan työn”. He kehittävät malliarkkitehtuurin, keräävät ja käsittelevät valtavia tietomassoja, joita tarvitaan mallin esivalmennukseen, ja suorittavat varsinaisen esivalmennuksen, jonka aikana malli oppii suurimman osan toiminnoistaan. Nämä organisaatiot tarvitsevat huomattavia resursseja, sillä tietojen kerääminen ja erityisesti laskentaintensiivinen esivalmennus ovat kalliita toimintoja. Nykyisen ehdotuksen mukaan FM-kehittäjää säännellään eniten itse malliin kohdistuvan vaikutuksen vuoksi suhteessa mallin kouluttamiseen käytetyn laskennan kumulatiiviseen määrään. Esimerkiksi ”erittäin vaikuttavaksi” luokitellulla FM:llä (yli 10^25 liukulukuoperaatiota koulutuksen aikana) olisi myös tiukemmat avoimuusvaatimukset, jotka koskevat esimerkiksi tekijänoikeudella suojatun koulutusmateriaalin julkistamista. Tämä on valtava vaatimus; esivalmennukseen tarvittava tietomäärä on niin valtava, että sen keruuprosessi on pitkälti automatisoitu, ja näin ollen itse ainetta voidaan valvoa vain vähän. Mielenkiintoinen yksityiskohta on se, että viimeisimmän sopimuksen mukaan avoimen lähdekoodin malleihin sovelletaan kevyempää sääntelyä.
Hienovirittäjillä on pienempi, mutta merkittävä vaikutus malliin. Ne ottavat esivalmennetun FM:n ja jatkavat sen harjoittelua pienemmällä, erikoistuneemmalla tietokokonaisuudella. Tavallaan he tekevät mallin kanssa samoja manipulaatioita kuin FM-kehittäjä, mutta pienemmässä mittakaavassa. Mielenkiintoinen kysymys kuuluu: miten AIA tekee eron niiden välillä? Sovelletaanko hienovirittäjiin samoja laskennallisen vaikutuksen ja avoimuuden suhteellisia vaatimuksia kuin FM-kehittäjiin? Hienosäätäjillä on joka tapauksessa helpompaa siinä mielessä, että heillä on paljon enemmän valtaa tietokokonaisuuksiensa sisältöön.
Mallin käyttöönottajat (pidetään niitä erillään hienosäätäjistä) eivät vaikuta itse LLM:ään. Pikemminkin he päättävät lopullisen käyttötapauksen (vaikka hienosäätäjä on saattanut jo kouluttaa mallin kyseistä tapausta varten) ja valvovat, miten mallia voidaan käyttää. Tämä tarkoittaa, että heihin sovelletaan todennäköisesti suurinta osaa AIA:n riskiluokkiin perustuvasta sääntelystä. Käyttöönottajat rakentavat myös ohjelmiston FM:n ympärille, mikä vaikuttaa siihen, miten mallia voidaan käyttää, miten sen syötteitä ja tuotoksia käsitellään ja miten paljon loppukäyttäjä voi hallita sitä. Näin ollen ”klassisemmista” ohjelmisto- ja tietoturvakysymyksistä saattaa hyvinkin tulla kriittinen osa AIA:n noudattamista.
Mitä seuraavaksi?
Toistaiseksi meidän on odotettava viimeisteltyjä tekstejä, jotta voimme ymmärtää säädöksen yksityiskohdat. Sillä välin jokaisen tekoälyjärjestelmien kanssa tekemisissä olevan organisaation on pohdittava sen seurauksia, mitä tiedämme nyt. Käyttöönottajien on jo nyt alettava miettiä vakavasti riskiluokittelua ja seuraavia vaatimuksia. FM-kehittäjät valmistautuvat lisätyöhön, joka aiheutuu harjoitusdatamassojen keräämisestä, ja punnitsevat samalla avoimen ja suljetun lähdekoodin kehitystä uudessa valossa.