Mistä tekoälylaissa on kyse?

Kirjoittajat

Emeline Banzuzi

Emeline Banzuzi

Tietosuojajuristi

Emeline Banzuzi toimii oikeuden, teknologian ja yhteiskunnan alaan erikoistuneena juristina ja tutkijana, jolla on asiantuntemusta erityisesti tietosuojasta, tekoäly- ja datalainsäädännöstä sekä akateemisesta tutkimuksesta.

Joel Himanen

Joel Himanen

Data Scientist

Joel Himanen on monipuolinen tietojenkäsittelytieteilijä, jolla on vahva painotus kehittyneeseen analytiikkaan, koneoppimiseen ja tekoälyyn. Hänellä on aiempaa kokemusta dataan perustuvista kestävyyshankkeista sekä yksityisellä että julkisella sektorilla.

Varhaisina tunteina 9. joulukuuta, Euroopan unioni parlamentti ja neuvosto antoivat vihdoin alustavan yhteisymmärrykseen sisällöstä Tekoälylaki (AIA). Tässä blogikirjoituksessa teemme yhteenvedon tärkeimmästä sisällöstä. AIA ja keskustella sen mahdollisista vaikutuksistaja avoimia kysymyksiä käyttämällä esimerkkinä suurten kielimallien (LLM) kehittämistä ja käyttöönottoa.

Lyhyt versio

EUtekoälylaki tarkoituksena on ohjata tekoälyjärjestelmien kehittämistä ja käyttöönottoa EU:ssa.ja varmistaa samalla, että nämä järjestelmät ovat turvallisia ja kunnioittavat terveyttä, turvallisuutta ja perusoikeuksia ja vapauksia EU:n kansalaisista. Väliaikaisessa sopimuksessa todetaan, että laki sovelletaan kaksi vuotta sen jälkeen, kuns voimaantulon jälkeen.voimaantulosta (ts. sen jälkeen, kun se on julkaistu EU:n virallisessa lehdessä)., lyhennetty kuuteen kuukauteen kieltojen osalta. se sisältää. Säädös erityisesti vaikuttaa tekoälyjärjestelmien käyttöönottajiin, joita säännellään käyttötapauksen mukaan riskiluokan mukaan. Generatiivisen tekoälyn puolella perustavanlaatuisten mallien kehittäjät – kohtaavat merkittäviä vaatimuksiaavoimuuteen, suojatoimiin, ja testaukseen liittyen.

Kaivetaan hieman syvemmälle

Lain ensimmäinen luonnos julkaistiin huhtikuussa 2021, ja sen lopullinen versio on parhaillaan EU:n lainsäädäntömenettelyssä. Viimeisimmän yhteisymmärryksen jälkeen sekä parlamentin että neuvoston on vielä vahvistettava säädös ja siihen on tehtävä oikeudellisia ja kielellisiä tarkistuksia ennen sen virallista hyväksymistä.

Laissa ”tekoälyjärjestelmä” määritellään konepohjaiseksi järjestelmäksi, joka tuottaa eriasteisesti itsenäisesti ja nimenomaisia tai epäsuoria tavoitteita varten tuotoksia, kuten ennusteita, suosituksia tai päätöksiä, joilla voidaan vaikuttaa fyysisiin tai virtuaalisiin ympäristöihin. Asetusta sovelletaan tekoälyjärjestelmien tarjoajiin, käyttöönottajiin ja jakelijoihin sekä ”vaikutuspiiriin kuuluviin henkilöihin” eli henkilöihin tai henkilöryhmiin, joihin tekoälyjärjestelmä kohdistuu tai joihin se muuten vaikuttaa.

AIA perustaa erilaisia velvoitteita tekoälyjärjestelmien kehittäjille ja käyttöönottajille, riippuen mihin riskiluokkaan kyseinen järjestelmä mahdollisesti kuuluu. Laissa esitetään neljä riskiluokkaa, jotka ovat seuraavat:

 

  • Hyväksymätön riski: Tekoälyjärjestelmät, jotka ovat selvä uhka yksilöiden turvallisuudelle, toimeentulolle ja oikeuksille (esim. sosiaaliseen pisteytykseen käytettävät järjestelmät ja järjestelmät, jotka käyttävät hyväkseen haavoittuvia ryhmiä, kuten lapsia). Näiden järjestelmien käyttö on kielletty.
  • Korkea riski: Tekoälyjärjestelmät, jotka aiheuttavat merkittävää haittaa yksilöiden terveydelle, turvallisuudelle tai perusoikeuksille. Esimerkkejä riskialttiista tekoälyjärjestelmistä ovat kriittisen infrastruktuurin hallinnassa, koulutuksessa, työelämässä, lainvalvonnassa ja rajavalvonnassa käytettävät järjestelmät. Korkean riskin järjestelmiin sovelletaan tiukkoja velvoitteita ennen kuin ne voidaan saattaa markkinoille: näiden järjestelmien tarjoajien ja käyttöönottajien on esimerkiksi kehitettävä riskienhallintaprosessi riskien tunnistamista ja vähentämistä varten, sovellettava asianmukaisia tiedonhallinta- ja -hallintakäytäntöjä koulutus-, validointi- ja testaustietokokonaisuuksiin, mahdollistettava inhimillinen valvonta, varmistettava tekninen kestävyys ja tietoverkkoturvallisuus sekä laadittava asiakirjat, joilla osoitetaan AIA:n vaatimustenmukaisuus. (Täydellinen luettelo velvoitteista on AIA:n 9-17 artiklassa).
  • Rajoitettu riski: Esimerkkejä rajoitetun riskin tekoälyjärjestelmistä ovat järjestelmät, jotka on tarkoitettu vuorovaikutukseen yksilöiden kanssa, esim. chatbotit ja syväjäljitelmät. Rajoitetun riskin tekoälyä koskevissa vaatimustenmukaisuusvelvoitteissa keskitytään avoimuuteen: näiden järjestelmien käyttäjille on selkeästi ilmoitettava, että he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa.
  • Vähäinen riski: Esimerkkejä minimaalisen riskin tekoälystä ovat roskapostisuodattimet, tekoälyä tukevat videopelit ja varastonhallintajärjestelmät. AIA mahdollistaa minimaalisen riskin AI:n vapaan käytön.

Riskiluokat ovat vaihdelleet koko AIA:n laatimisvaiheissa.

Vaikutukset mallien kehittäjille ja käyttöönottajille

Tekoälymallien ja -sovellusten kehittäjät ovat luonnollisesti varsin huolissaan laista, koska se voi vaikuttaa merkittävästi kehitys- ja käyttöprosesseihin. AIA:n ehdotusvaiheen viimeistelyvaiheessa on tärkeää pohtia mahdollisia skenaarioita ja miettiä, miten laki vaikuttaisi tekoälyalan eri ryhmiin.

Tarkastellaanpa vuoden 2023 kuuminta tekoälyteemaa: Suuret kielimallit (LLM). Yksi tapa tarkastella elinikäisen oppimisen elinkaarta on jakaa se kolmeen vaiheeseen (ylävirrasta alavirtaan): perusmallin (FM) kehittäminen, hienosäätöja käyttöönotto. Mitä mahdollisia vaikutuksia tekoälylailla olisi näihin vaiheisiin?

Pohjamallin kehittäjät ovat niitä, jotka tekevät ”raskaan työn”. He kehittävät malliarkkitehtuurin, keräävät ja käsittelevät valtavia tietomassoja, joita tarvitaan mallin esivalmennukseen, ja suorittavat varsinaisen esivalmennuksen, jonka aikana malli oppii suurimman osan toiminnoistaan. Nämä organisaatiot tarvitsevat huomattavia resursseja, sillä tietojen kerääminen ja erityisesti laskentaintensiivinen esivalmennus ovat kalliita toimintoja. Nykyisen ehdotuksen mukaan FM-kehittäjää säännellään eniten itse malliin kohdistuvan vaikutuksen vuoksi suhteessa mallin kouluttamiseen käytetyn laskennan kumulatiiviseen määrään. Esimerkiksi ”erittäin vaikuttavaksi” luokitellulla FM:llä (yli 10^25 liukulukuoperaatiota koulutuksen aikana) olisi myös tiukemmat avoimuusvaatimukset, jotka koskevat esimerkiksi tekijänoikeudella suojatun koulutusmateriaalin julkistamista. Tämä on valtava vaatimus; esivalmennukseen tarvittava tietomäärä on niin valtava, että sen keruuprosessi on pitkälti automatisoitu, ja näin ollen itse ainetta voidaan valvoa vain vähän. Mielenkiintoinen yksityiskohta on se, että viimeisimmän sopimuksen mukaan avoimen lähdekoodin malleihin sovelletaan kevyempää sääntelyä.

Hienovirittäjillä on pienempi, mutta merkittävä vaikutus malliin. Ne ottavat esivalmennetun FM:n ja jatkavat sen harjoittelua pienemmällä, erikoistuneemmalla tietokokonaisuudella. Tavallaan he tekevät mallin kanssa samoja manipulaatioita kuin FM-kehittäjä, mutta pienemmässä mittakaavassa. Mielenkiintoinen kysymys kuuluu: miten AIA tekee eron niiden välillä? Sovelletaanko hienovirittäjiin samoja laskennallisen vaikutuksen ja avoimuuden suhteellisia vaatimuksia kuin FM-kehittäjiin? Hienosäätäjillä on joka tapauksessa helpompaa siinä mielessä, että heillä on paljon enemmän valtaa tietokokonaisuuksiensa sisältöön.

Mallin käyttöönottajat (pidetään niitä erillään hienosäätäjistä) eivät vaikuta itse LLM:ään. Pikemminkin he päättävät lopullisen käyttötapauksen (vaikka hienosäätäjä on saattanut jo kouluttaa mallin kyseistä tapausta varten) ja valvovat, miten mallia voidaan käyttää. Tämä tarkoittaa, että heihin sovelletaan todennäköisesti suurinta osaa AIA:n riskiluokkiin perustuvasta sääntelystä. Käyttöönottajat rakentavat myös ohjelmiston FM:n ympärille, mikä vaikuttaa siihen, miten mallia voidaan käyttää, miten sen syötteitä ja tuotoksia käsitellään ja miten paljon loppukäyttäjä voi hallita sitä. Näin ollen ”klassisemmista” ohjelmisto- ja tietoturvakysymyksistä saattaa hyvinkin tulla kriittinen osa AIA:n noudattamista.

Mitä seuraavaksi?

Toistaiseksi meidän on odotettava viimeisteltyjä tekstejä, jotta voimme ymmärtää säädöksen yksityiskohdat. Sillä välin jokaisen tekoälyjärjestelmien kanssa tekemisissä olevan organisaation on pohdittava sen seurauksia, mitä tiedämme nyt. Käyttöönottajien on jo nyt alettava miettiä vakavasti riskiluokittelua ja seuraavia vaatimuksia. FM-kehittäjät valmistautuvat lisätyöhön, joka aiheutuu harjoitusdatamassojen keräämisestä, ja punnitsevat samalla avoimen ja suljetun lähdekoodin kehitystä uudessa valossa.

Tekijänoikeushaasteet tekoälyn aikakaudella

Voiko tekijänoikeuden haltijan yksinoikeus valmistaa kopioita estää tekoälyn kehittäjiä käyttämästä tekijänoikeudella suojattuja teoksia harjoitusaineistossa?

Mistä tekoälylaissa on kyse?

Euroopan unionin parlamentti ja neuvosto pääsivät 9. joulukuuta varhain aamulla viimein alustavaan sopimukseen tekoälylain sisällöstä. Tässä blogikirjoituksessa teemme yhteenvedon AIA:n keskeisestä sisällöstä ja keskustelemme sen mahdollisista vaikutuksista ja avoimista kysymyksistä käyttäen esimerkkinä suurten kielimallien (LLM) kehittämistä ja käyttöönottoa.

Luotettava data mahdollistaa vastuullisuuden ja kestävyyden

Tiedolla ja tekoälyllä on ratkaiseva rooli sen osoittamisessa, että yritykset toimivat vastuullisesti ja täyttävät ympäristöön, yhteiskuntaan ja hallintoon liittyvät tavoitteensa.

Luotettava data mahdollistaa vastuullisuuden ja kestävyyden

Kirjoittaja

Marko Turpeinen

Marko Turpeinen

Toimitusjohtaja

Marko Turpeinen on visionäärinen johtaja, jolla on yli 25 vuoden kokemus digitaalisesta transformaatiosta ja innovaatiosta. Hän on työskennellyt arvostetuissa instituutioissa, kuten MIT Media Labissa ja EIT Digitalissa, ja käynnistänyt maailmanlaajuisen MyData-liikkeen Aalto-yliopistossa.

Tiedolla ja tekoälyllä on ratkaiseva rooli sen osoittamisessa, että yritykset toimivat vastuullisesti ja täyttävät ympäristöön, yhteiskuntaan ja hallintoon liittyvät tavoitteensa.

Kuva, joka edustaa eettisiä käytäntöjä, kuten henkilö, joka pitää tietopalloa varovasti hallussaan.

Nykyinen todellisuus on, että ESG-tietokäytännöt ovat tehottomia ja epätarkkoja. ESG-tiedot ovat peräisin lukuisista eri lähteistä, ja niiden laatu vaihtelee. Tietojen saatavuus on heikkoa, varsinkin kun tietojen keruu ja analysointi ulottuu yrityksen omien rajojen ulkopuolelle, toimitusketjuun ja yhteistyökumppaneihin. Siihen liittyy paljon manuaalista työtä, ja jokainen yritys tekee työn itse. Tämä johtaa valtavaan määrään päällekkäistä työtä.

Yhteistoiminnallinen tietojen jakaminen CSRD:n aikakaudella

Euroopan unionin direktiivi yritysten kestävän kehityksen raportoinnista (CSRD) tuli voimaan tämän vuoden tammikuussa. Sillä nykyaikaistetaan ja tiukennetaan sääntöjä, jotka koskevat ESG-tietoja, jotka yritysten on raportoitava. Suurten pörssiyhtiöiden odotetaan aloittavan raportoinnin vuonna 2025 vuoden 2024 tietojensa perusteella, ja muut yritykset seuraavat perässä, kun CSRD otetaan asteittain käyttöön. CSRD:n piiriin kuuluvien yritysten on raportoitava eurooppalaisten kestävän kehityksen raportointistandardien (ESRS) mukaisesti, toimitettava raportointi standardoidussa digitaalisessa muodossa ja sisällytettävä liiketoimintaverkostonsa (esim. toimitusketjut) ympäristövaikutuksiinsa.

ESG-raportointia koskevat kasvavat sääntelyvaatimukset vaikuttavat hyvin moniin yrityksiin. Entä jos yritykset voisivat tehdä tehokkaampaa yhteistyötä näiden tarpeiden täyttämiseksi? Sen sijaan, että jokainen yritys keräisi tietoja itselleen, olisi selvää hyötyä tietojen jakamiskäytäntöjen muodostamisesta, jotta kestävyystiedot olisivat kaikkien ekosysteemin osapuolten saatavilla. Tämä auttaisi minimoimaan ekosysteemin osallistujien päällekkäisen työn ja lisäisi koko arvoketjun läpinäkyvyyttä kaikkien kannalta. Tietoekosysteemissä koko arvoketju voi yhdessä edistää – ja jopa rahoittaa – kestävyyden parantamista.

Kuva, joka kuvaa kättelyä tai yhteistyötä tekevää ihmisryhmää.

Sääntökirjaan perustuva lähestymistapa riskien lieventämiseen ja oikeudenmukaisen tiedonkäytön varmistamiseen ekosysteemeissä.

Selvistä eduista huolimatta tietojen jakaminen tuo esiin myös useita hankalia kysymyksiä, jotka liittyvät liiketoimintariskeihin, tietohygieniaan, liikesalaisuuksien paljastamiseen, yritysten turvallisuuskäytäntöihin ja tietojen oikeudenmukaiseen käyttöön. Miten yritys voi osoittaa, että sen tietoihin ja menetelmiin voi luottaa? Miten ekosysteemin osallistujat voivat luottaa siihen, että he eivät käytä tietoja väärin? Saavatko muut epäreilua etua tiedoistani?

Ekosysteemin toimijoiden välistä luottamuksen rakentamista, reilua datankäyttöä ja riskien minimointia voidaan edistää säännöstön avulla. rulebook approach. Sitran reilun datatalouden sääntökirjamalli on yksi johtava esimerkki tästä lähestymistavasta, jossa datan ekosysteemien hallintaa tarkastellaan kokonaisvaltaisesti. Se auttaa organisaatioita muodostamaan uusia tiedonjakoverkkoja ja toteuttamaan niitä koskevia käytäntöjä ja sääntöjä.

Sääntökirjaan perustuva lähestymistapa auttaa myös tietojen toimittajia ja käyttäjiä arvioimaan sovellettavasta lainsäädännöstä ja sopimuksista johtuvia vaatimuksia asianmukaisesti ja ohjaa niitä ottamaan käyttöön käytäntöjä, jotka edistävät tietojen käyttöä ja riskienhallintaa. Sääntökirjaan perustuvan lähestymistavan avulla osapuolet voivat luoda keskinäiseen luottamukseen perustuvan tietoverkon, jolla on yhteinen tehtävä, visio ja arvot. Tämä edistää luottamusta ja tietojen vastuullista käyttöä.

Kuva, joka kuvaa kättelyä tai yhteistyötä tekevää ihmisryhmää.

Vastuullisuuden ja kestävän kehityksen vaatimus teollisuudessa

Vastuu ja kestävyys ovat nousseet keskeisiksi tekijöiksi toimivien dataekosysteemien luomisessa. Tämä käy ilmi esimerkiksi autoteollisuuden Catena-X-aloitteen kaltaisista tietojen jakamista koskevista aloitteista. Catena-X:n tavoitteena on kasvaa yli 200 000 tiedonjakeluorganisaation verkostoksi. Catena-X on valinnut yhdenmukaistetun ja tarkan ESG-raportoinnin ekosysteemin kiireellisimmäksi liiketoiminnalliseksi haasteeksi, joka on ratkaistava.

Olemme matkalla kohti tulevaisuutta, jossa tietojen jakamista ja yhteistyötä odotetaan laajamittaisesti, ja se saattaa vaikuttaa kaikkiin, joilla on osuutensa teollisuuden ekosysteemissä. Näiden aloitteiden merkitys ja vaikutus leviävät ja kasvavat, Kokonaisvaltainen ESG-tiedonhallinnan lähestymistapa on liiketoimintakriittinen tekijä luottamuksen rakentamisessa datan ekosysteemeihin.

Tekijänoikeushaasteet tekoälyn aikakaudella

Voiko tekijänoikeuden haltijan yksinoikeus valmistaa kopioita estää tekoälyn kehittäjiä käyttämästä tekijänoikeudella suojattuja teoksia harjoitusaineistossa?

Mistä tekoälylaissa on kyse?

Euroopan unionin parlamentti ja neuvosto pääsivät 9. joulukuuta varhain aamulla viimein alustavaan sopimukseen tekoälylain sisällöstä. Tässä blogikirjoituksessa teemme yhteenvedon AIA:n keskeisestä sisällöstä ja keskustelemme sen mahdollisista vaikutuksista ja avoimista kysymyksistä käyttäen esimerkkinä suurten kielimallien (LLM) kehittämistä ja käyttöönottoa.

Luotettava data mahdollistaa vastuullisuuden ja kestävyyden

Tiedolla ja tekoälyllä on ratkaiseva rooli sen osoittamisessa, että yritykset toimivat vastuullisesti ja täyttävät ympäristöön, yhteiskuntaan ja hallintoon liittyvät tavoitteensa.