Tekijänoikeushaasteet tekoälyn aikakaudella

Kirjoittajat

Olli Pitkänen

Olli Pitkänen

Lakiasiainjohtaja, dos., TkT, OTK

Tohtori Olli Pitkänen on kokenut IT-oikeuden asiantuntija. Hän on koko uransa työskennellyt tietotekniikkaan ja dataan liittyvien oikeudellisten kysymysten parissa. Erityisesti tietosuoja, tekijänoikeus ja muut aineettomat oikeudet (IPR) sekä sopimukset ohjelmistoihin, dataan ja tietoteknisiin järjestelmiin liittyen ovat hänen erikoisalaansa. Olli on koordinoinut Sitran Reilun datatalouden sääntökirjamallin kehitystyötä ja osallistunut sen soveltamiseenmonissa asiakasprojekteissa.

Sami Jokela

Sami Jokela

Tekninen johtaja

Sami Jokela on kokenut johtaja, jolla on yli 20 vuoden kokemus datasta, teknologiasta ja strategiasta, muun muassa Nokian palveluksessa, startup-yritysten perustajana ja Accenturen teknologia- ja informaatiotutkimuskäytäntöjen johtajana.

Waltter Roslin

Waltter Roslin

Asianajaja

Waltter on lakimies, joka keskittyy tietojen jakamiseen, hallinnointiin, yksityisyyteen ja teknologiaan liittyviin kysymyksiin. Hän on myös väitöskirjatutkija Helsingin yliopistossa, jossa hänen tutkimuksensa keskittyy suomalaiseen lääkekorvausjärjestelmään.

OSA I - Voiko tekijänoikeuden haltijan yksinoikeus valmistaa kopioita estää tekoälyn kehittäjiä käyttämästä tekijänoikeudella suojattuja teoksia harjoitusdatassa?

Johdanto

Tekoäly asettaa uusia haasteita monilla oikeudellisilla aloilla. Yksi näistä aloista on tekijänoikeusjärjestelmä, joka on kehitetty aivan toisenlaista maailmaa ja aikakautta varten. Tekoälyjärjestelmiä kehittävät tai soveltavat yritykset ja muut toimijat kohtaavat vaikeuksia yrittäessään noudattaa tekijänoikeuslakia. Niitä on erityisesti kolmella alueella:

  • Voiko tekijänoikeuden haltijan yksinoikeus valmistaa kopioita estää tekoälyn kehittäjiä käyttämästä tekijänoikeudella suojattuja teoksia harjoitusdatassa,
  • Onko generatiivisen tekoälyjärjestelmän tuotos tekijänoikeudellisesti suojattavissa ja kuka on tekijä, jos tekoälyä käytetään aloilla, joilla on perinteisesti vaadittu ihmisen luovuutta, ja
  • Ovatko tekoälymallit tekijänoikeudellisesti suojattavissa?

Tässä kolmiosaisen kirjoituksen ensimmäisessä osassa analysoimme tekijänoikeuksien haltijoiden oikeutta estää tekoälyn kehittäjiä käyttämästä tekijänoikeudella suojattuja teoksia harjoitusdatassa erityisesti EU:n lainsäädännön näkökulmasta.

Asteikko, jonka toisella puolella on tekijänoikeussymboleja ja toisella puolella tekoälyalgoritmeja kuvaavia symboleja, ja keskellä on kysymysmerkki.<br />
Kuvateksti:Tekijänoikeussuojan ja tekoälyn kehittämisen tasapainottaminen: A Legal Dilemma.

Yksinoikeus tekoälyn kouluttamisen estämiseksi

Luovat teokset on suojattu tekijänoikeudella. Sitä säätelevät kansalliset lait, EU:n direktiivit ja kansainväliset sopimukset. Kaikki omaperäinen ja ilmaistu on suojattu tekijänoikeudella. Teoksen ei tarvitse olla rekisteröity tai tekijänoikeusmerkintä (esim. ©-merkintä) eikä sen tarvitse olla taiteellinen. Alkuperäisen kohteen on oltava tekijän henkinen luomus, ja tekijänoikeudet koskevat vain niitä osia, jotka ilmentävät tällaista luomusta. Tekijän on täytynyt tehdä luovia valintoja teosta tehdessään.1

Esimerkiksi romaanin kaltaisen pitkän tekstin kirjoittaminen sisältää yleensä luovia valintoja, kun kirjoittaja valitsee, mitä sanoja käyttää ja missä järjestyksessä. Toisaalta yksikään yksittäinen sana kyseisestä teoksesta ei ole tekijänoikeudellisesti suojattavissa. Näin ollen laajemmat tekstit ja pidemmätkin otteet ovat usein niin omaperäisiä, että ne ovat tekijänoikeudellisesti suojattuja, mutta yksittäinen sana tai muutama sana tekstistä ei ole.

Mitä tämä tarkoittaa tekoälyn kannalta? Koneellisessa oppimisessa tilastollisia malleja koulutetaan käyttämällä suuria määriä dataa, esimerkiksi tekstiä tai kuvia. Mallissa on sitten tietoa eri sanojen tai kuvan elementtien yhteenkuuluvuuden todennäköisyyksistä. Tarkemmin sanottuna erityisesti suurten kielimallien (LLM) osalta alkuperäinen koulutusteksti korvataan merkkeillä (kunkin sanan yksilöllinen numeerinen esitys), minkä jälkeen malli koulutetaan ennustamaan todennäköisin seuraava merkki. Mallia käytettäessä annetaan alkukontekstiksi kehotusteksti, jota sitten käytetään samalla tavalla ennustamaan seuraava merkkijakso. Lopuksi nämä merkit muunnetaan sanoiksi ja lauseiksi. Tällaisen mallin avulla esimerkiksi generatiivinen tekoälyjärjestelmä voi tuottaa tekstejä tai kuvia, jotka muistuttavat ihmisen luomia tekstejä tai kuvia.

 

 

Tekijänoikeuden kannalta ensimmäinen kysymys on, tapahtuuko prosessissa mitään tekijänoikeuden kannalta merkityksellistä. Pelkkä tekstin lukeminen tai kuvien katseleminen ei loukkaa tekijänoikeuksia. Myöskään yksittäisten sanojen tai niiden merkkien kopiointi ei loukkaa tekijänoikeutta, koska kuten edellä todettiin, yksittäiset sanat eivät ole tekijänoikeudellisesti suojattuja. Suurempien tekstikokonaisuuksien tai kokonaisen kuvan kopioiminen voi rikkoa tekijänoikeuksia. Mallin kouluttaminen voi siis loukata tekijänoikeuksia tai olla loukkaamatta, riippuen koulutusalgoritmista: kopioidaanko koulutuksessa tekijän luovia valintoja vai analysoidaanko yksittäisten sanojen välistä etäisyyttä. Tyypillinen, hieman yksinkertaistettu koneoppimisprosessi koostuu tekstin lukemisesta, mahdollisten epäolennaisten merkkien poistamisesta ja tuloksen muuntamisesta merkkisarjaksi. Tämän jälkeen tulokset tallennetaan tyypillisesti merkkivektoreiksi useita kertoja toistettavaa oppimisprosessia varten. Vaihtoehtoisesti materiaali tallennetaan ensin sellaisenaan ja muunnetaan sitten lennossa oppimisen aikana, mutta tämä on paljon tehottomampi lähestymistapa kuin edellinen. On todennäköistä, että merkkivektorit sisältävät myös alkuperäisen tekijän tekemien luovien valintojen tulokset. Algoritmista riippuen on siis edelleen mahdollista, että koneoppimisprosessi kopioi alkuperäisiä teoksia ja on siten tekijänoikeuden kannalta merkityksellinen.

Tätä kirjoitettaessa The New York Times on juuri haastanut OpenAI:n ja Microsoftin oikeuteen tekijänoikeusrikkomuksesta. Esimerkkinä siitä, miten tekoälyjärjestelmät käyttävät The Timesin aineistoa, mediatalo väitti, että ChatGPT toisti lähes sanatarkasti tuloksia Wirecutterista, The Timesin tuotearvostelusivustosta.2 OpenAI puolestaan kiistää tämän. Yhtiö sanoo, että heillä on käytössä toimenpiteitä, joilla rajoitetaan tahatonta muistamista ja estetään mallien tulosteiden toistaminen.3 Emme vielä tiedä, miten kiista päättyy, mutta jos The Times on oikeassa, OpenAI:n ChatGPT rikkoo todennäköisesti tekijänoikeuksia. Olisi vaikea ymmärtää, miten ohjelmiston tuotos sisältää ”lähes sanatarkat” kopiot harjoitusdatasta, jos niitä ei ensin kopioida malliin. Toisaalta, jos OpenAI on oikeassa, on paljon vaikeampi sanoa, tapahtuuko prosessissa mitään tekijänoikeuden kannalta merkityksellistä.

Pätkä binäärikoodia, joka muodostaa tekijänoikeudella suojatun teoksen (kuten kirjan tai kuvan).<br />
Kuvateksti: "Tekijänoikeuksien purkaminen: Voiko tekoäly muuntaa suojattuja teoksia innovaatioksi?

Poikkeukset koulutuksen sallimiseen

Toinen kysymys on, että jos mallin kouluttaminen on tekijänoikeudellisesti relevanttia, onko tekijänoikeuslaissa poikkeus tai rajoitus, joka sallisi kouluttamisen?

Tekijänoikeuslain tekijöille antamia vahvoja yksinoikeuksia, kuten oikeutta kopioida, muuttaa, myydä ja esittää teosta, on pyritty tasapainottamaan poikkeuksilla ja rajoituksilla. Ne vaihtelevat maittain. Usein ne luetellaan tekijänoikeussäännöissä, mutta esimerkiksi Yhdysvalloissa ne sisältyvät oikeudenmukaiseen käyttöön (fair use doctrine), joka on tekijänoikeuden avoin rajoitus. Tyypillisesti poikkeuksia ovat kirjastojen, oppilaitosten, museoiden tai arkistojen suorittama kopiointi ja yleisradio-organisaatioiden tekemät lyhytaikaiset tallenteet, kuvitus opetus- tai tutkimustarkoituksiin, vammaisten hyväksi, ajankohtaisten tapahtumien saattamiseksi yleisön saataville sekä siteerausta tai karikatyyrihahmojen tekemistä varten. Erityisesti monissa maissa on laillista valmistaa kopioita tekijänoikeudella suojatuista teoksista yksityiseen käyttöön. Äskettäin DSM-direktiivin 4 artiklassa4EU on edellyttänyt, että jäsenvaltioiden on säädettävä tekijänoikeutta koskevasta poikkeuksesta tai rajoituksesta, joka koskee laillisesti saatavilla olevien teosten jäljentämistä ja poimimista tekstinlouhintaa ja tiedonlouhintaa varten, elleivät teosten oikeudenhaltijat ole nimenomaisesti varanneet teosten käyttöä asianmukaisella tavalla. Tekstin- ja tiedonlouhintaa tutkimusorganisaatioissa ja kulttuuriperintölaitoksissa ei voida rajoittaa tällaisella varauksella (3 artikla).

On huomattava, että tekijänoikeuden haltijan yksinoikeus on pääsääntö, ja poikkeuksia ja rajoituksia olisi tulkittava suppeasti. Sen vuoksi tekstin ja tietojen louhintaa koskevaa poikkeusta tai rajoitusta ei pitäisi tulkita laajemmin kuin miten se on nimenomaisesti ilmaistu direktiivissä. Mielenkiintoinen kysymys on, sisältyykö tekstin ja tiedon louhintaan tässä yhteydessä myös koneoppimisen koulutusprosesseja. Direktiivin 2 artiklassa määritellään, että ”tekstin ja tietojen louhinnalla” tarkoitetaan mitä tahansa automatisoitua analyysitekniikkaa, jonka tarkoituksena on analysoida digitaalisessa muodossa olevaa tekstiä ja dataa sellaisten tietojen tuottamiseksi, jotka sisältävät muun muassa kuvioita, suuntauksia ja korrelaatioita. Näyttää siltä, että useimmat asiantuntijat ovat yhtä mieltä siitä, että tämä määritelmä kattaa myös koneoppimisen. Tätä kirjoitettaessa meillä ei vielä ole tekoälylain lopullista sanamuotoa, mutta tämänhetkisten luonnosten perusteella näyttää siltä, että tekoälylakiin sisällytetään selvennys siitä, että DSM-direktiivin mukaista tiedonlouhintaa koskevaa poikkeusta sovelletaan tekoälyn koulutukseen. Vaikka emme voikaan olla varmoja ennen kuin Euroopan yhteisöjen tuomioistuin ottaa asiaan kantaa, oletamme, että tekijänoikeudella suojattujen teosten käyttäminen tekoälyn kouluttamiseen on sallittua DSM-direktiivin 3. ja 4. artiklan mukaisesti.

Tästä näkökulmasta katsottuna mallin kouluttaminen tekijänoikeudella suojattuja teoksia sisältävillä tiedoilla olisi laillista, elleivät oikeudenhaltijat ole nimenomaisesti varanneet teosten käyttöä. Tämä ei kuitenkaan tee lailliseksi kehittää generatiivista tekoälyjärjestelmää, joka tuottaa kopioita tekijänoikeudella suojatuista teoksista. Luvattomien kopioiden tekeminen ei olisi laillista vain väittämällä, että kopiokone sisältää tekoälyohjelmiston!

Päätelmät

Tämän ensimmäisen osan päätteeksi voidaan todeta, että algoritmista riippuen koneoppimisprosessi voi olla merkityksellinen tekijänoikeuden kannalta. Jos koulutuksessa kopioidaan tekijänoikeudella suojatun teoksen alkuperäisen tekijän tekemiä luovia valintoja koulutustietoihin, se voi loukata tekijän yksinoikeuksia. Toisaalta, jos koneoppimisprosessia voidaan pitää tiedonlouhintana, se voi kuulua DSM-direktiivissä määritellyn rajoituksen tai poikkeuksen piiriin ja siten olla laillista EU:ssa. Jos generatiivisen tekoälyjärjestelmän tuotos kuitenkin sisältää kopioita harjoitusaineistoon sisältyvistä teoksista, sitä ei voida perustella kyseisellä rajoituksella tai poikkeuksella.

Seuraavissa osissa keskustelemme ensin tekoälyn tuottaman sisällön tekijyydestä ja täydennämme tämän kolmiosaisen kirjoituksen ajatuksilla tekoälymallien tekijänoikeuksista.

1001 Lakesin asiantuntijat keskustelevat mielellään näistä aiheista kanssasi, jos sinua askarruttaa tekoäly ja tekijänoikeus tai se, miten kehittää ja käyttää tekoälyä tekijänoikeuslain mukaisesti.

Tekijänoikeushaasteet tekoälyn aikakaudella

Voiko tekijänoikeuden haltijan yksinoikeus valmistaa kopioita estää tekoälyn kehittäjiä käyttämästä tekijänoikeudella suojattuja teoksia harjoitusaineistossa?

Mistä tekoälylaissa on kyse?

Euroopan unionin parlamentti ja neuvosto pääsivät 9. joulukuuta varhain aamulla viimein alustavaan sopimukseen tekoälylain sisällöstä. Tässä blogikirjoituksessa teemme yhteenvedon AIA:n keskeisestä sisällöstä ja keskustelemme sen mahdollisista vaikutuksista ja avoimista kysymyksistä käyttäen esimerkkinä suurten kielimallien (LLM) kehittämistä ja käyttöönottoa.

Luotettava data mahdollistaa vastuullisuuden ja kestävyyden

Tiedolla ja tekoälyllä on ratkaiseva rooli sen osoittamisessa, että yritykset toimivat vastuullisesti ja täyttävät ympäristöön, yhteiskuntaan ja hallintoon liittyvät tavoitteensa.

Mistä tekoälylaissa on kyse?

Kirjoittajat

Emeline Banzuzi

Emeline Banzuzi

Tietosuojajuristi

Emeline Banzuzi toimii oikeuden, teknologian ja yhteiskunnan alaan erikoistuneena juristina ja tutkijana, jolla on asiantuntemusta erityisesti tietosuojasta, tekoäly- ja datalainsäädännöstä sekä akateemisesta tutkimuksesta.

Joel Himanen

Joel Himanen

Data Scientist

Joel Himanen on monipuolinen tietojenkäsittelytieteilijä, jolla on vahva painotus kehittyneeseen analytiikkaan, koneoppimiseen ja tekoälyyn. Hänellä on aiempaa kokemusta dataan perustuvista kestävyyshankkeista sekä yksityisellä että julkisella sektorilla.

Varhaisina tunteina 9. joulukuuta, Euroopan unioni parlamentti ja neuvosto antoivat vihdoin alustavan yhteisymmärrykseen sisällöstä Tekoälylaki (AIA). Tässä blogikirjoituksessa teemme yhteenvedon tärkeimmästä sisällöstä. AIA ja keskustella sen mahdollisista vaikutuksistaja avoimia kysymyksiä käyttämällä esimerkkinä suurten kielimallien (LLM) kehittämistä ja käyttöönottoa.

Lyhyt versio

EUtekoälylaki tarkoituksena on ohjata tekoälyjärjestelmien kehittämistä ja käyttöönottoa EU:ssa.ja varmistaa samalla, että nämä järjestelmät ovat turvallisia ja kunnioittavat terveyttä, turvallisuutta ja perusoikeuksia ja vapauksia EU:n kansalaisista. Väliaikaisessa sopimuksessa todetaan, että laki sovelletaan kaksi vuotta sen jälkeen, kuns voimaantulon jälkeen.voimaantulosta (ts. sen jälkeen, kun se on julkaistu EU:n virallisessa lehdessä)., lyhennetty kuuteen kuukauteen kieltojen osalta. se sisältää. Säädös erityisesti vaikuttaa tekoälyjärjestelmien käyttöönottajiin, joita säännellään käyttötapauksen mukaan riskiluokan mukaan. Generatiivisen tekoälyn puolella perustavanlaatuisten mallien kehittäjät – kohtaavat merkittäviä vaatimuksiaavoimuuteen, suojatoimiin, ja testaukseen liittyen.

Kaivetaan hieman syvemmälle

Lain ensimmäinen luonnos julkaistiin huhtikuussa 2021, ja sen lopullinen versio on parhaillaan EU:n lainsäädäntömenettelyssä. Viimeisimmän yhteisymmärryksen jälkeen sekä parlamentin että neuvoston on vielä vahvistettava säädös ja siihen on tehtävä oikeudellisia ja kielellisiä tarkistuksia ennen sen virallista hyväksymistä.

Laissa ”tekoälyjärjestelmä” määritellään konepohjaiseksi järjestelmäksi, joka tuottaa eriasteisesti itsenäisesti ja nimenomaisia tai epäsuoria tavoitteita varten tuotoksia, kuten ennusteita, suosituksia tai päätöksiä, joilla voidaan vaikuttaa fyysisiin tai virtuaalisiin ympäristöihin. Asetusta sovelletaan tekoälyjärjestelmien tarjoajiin, käyttöönottajiin ja jakelijoihin sekä ”vaikutuspiiriin kuuluviin henkilöihin” eli henkilöihin tai henkilöryhmiin, joihin tekoälyjärjestelmä kohdistuu tai joihin se muuten vaikuttaa.

AIA perustaa erilaisia velvoitteita tekoälyjärjestelmien kehittäjille ja käyttöönottajille, riippuen mihin riskiluokkaan kyseinen järjestelmä mahdollisesti kuuluu. Laissa esitetään neljä riskiluokkaa, jotka ovat seuraavat:

 

  • Hyväksymätön riski: Tekoälyjärjestelmät, jotka ovat selvä uhka yksilöiden turvallisuudelle, toimeentulolle ja oikeuksille (esim. sosiaaliseen pisteytykseen käytettävät järjestelmät ja järjestelmät, jotka käyttävät hyväkseen haavoittuvia ryhmiä, kuten lapsia). Näiden järjestelmien käyttö on kielletty.
  • Korkea riski: Tekoälyjärjestelmät, jotka aiheuttavat merkittävää haittaa yksilöiden terveydelle, turvallisuudelle tai perusoikeuksille. Esimerkkejä riskialttiista tekoälyjärjestelmistä ovat kriittisen infrastruktuurin hallinnassa, koulutuksessa, työelämässä, lainvalvonnassa ja rajavalvonnassa käytettävät järjestelmät. Korkean riskin järjestelmiin sovelletaan tiukkoja velvoitteita ennen kuin ne voidaan saattaa markkinoille: näiden järjestelmien tarjoajien ja käyttöönottajien on esimerkiksi kehitettävä riskienhallintaprosessi riskien tunnistamista ja vähentämistä varten, sovellettava asianmukaisia tiedonhallinta- ja -hallintakäytäntöjä koulutus-, validointi- ja testaustietokokonaisuuksiin, mahdollistettava inhimillinen valvonta, varmistettava tekninen kestävyys ja tietoverkkoturvallisuus sekä laadittava asiakirjat, joilla osoitetaan AIA:n vaatimustenmukaisuus. (Täydellinen luettelo velvoitteista on AIA:n 9-17 artiklassa).
  • Rajoitettu riski: Esimerkkejä rajoitetun riskin tekoälyjärjestelmistä ovat järjestelmät, jotka on tarkoitettu vuorovaikutukseen yksilöiden kanssa, esim. chatbotit ja syväjäljitelmät. Rajoitetun riskin tekoälyä koskevissa vaatimustenmukaisuusvelvoitteissa keskitytään avoimuuteen: näiden järjestelmien käyttäjille on selkeästi ilmoitettava, että he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa.
  • Vähäinen riski: Esimerkkejä minimaalisen riskin tekoälystä ovat roskapostisuodattimet, tekoälyä tukevat videopelit ja varastonhallintajärjestelmät. AIA mahdollistaa minimaalisen riskin AI:n vapaan käytön.

Riskiluokat ovat vaihdelleet koko AIA:n laatimisvaiheissa.

Vaikutukset mallien kehittäjille ja käyttöönottajille

Tekoälymallien ja -sovellusten kehittäjät ovat luonnollisesti varsin huolissaan laista, koska se voi vaikuttaa merkittävästi kehitys- ja käyttöprosesseihin. AIA:n ehdotusvaiheen viimeistelyvaiheessa on tärkeää pohtia mahdollisia skenaarioita ja miettiä, miten laki vaikuttaisi tekoälyalan eri ryhmiin.

Tarkastellaanpa vuoden 2023 kuuminta tekoälyteemaa: Suuret kielimallit (LLM). Yksi tapa tarkastella elinikäisen oppimisen elinkaarta on jakaa se kolmeen vaiheeseen (ylävirrasta alavirtaan): perusmallin (FM) kehittäminen, hienosäätöja käyttöönotto. Mitä mahdollisia vaikutuksia tekoälylailla olisi näihin vaiheisiin?

Pohjamallin kehittäjät ovat niitä, jotka tekevät ”raskaan työn”. He kehittävät malliarkkitehtuurin, keräävät ja käsittelevät valtavia tietomassoja, joita tarvitaan mallin esivalmennukseen, ja suorittavat varsinaisen esivalmennuksen, jonka aikana malli oppii suurimman osan toiminnoistaan. Nämä organisaatiot tarvitsevat huomattavia resursseja, sillä tietojen kerääminen ja erityisesti laskentaintensiivinen esivalmennus ovat kalliita toimintoja. Nykyisen ehdotuksen mukaan FM-kehittäjää säännellään eniten itse malliin kohdistuvan vaikutuksen vuoksi suhteessa mallin kouluttamiseen käytetyn laskennan kumulatiiviseen määrään. Esimerkiksi ”erittäin vaikuttavaksi” luokitellulla FM:llä (yli 10^25 liukulukuoperaatiota koulutuksen aikana) olisi myös tiukemmat avoimuusvaatimukset, jotka koskevat esimerkiksi tekijänoikeudella suojatun koulutusmateriaalin julkistamista. Tämä on valtava vaatimus; esivalmennukseen tarvittava tietomäärä on niin valtava, että sen keruuprosessi on pitkälti automatisoitu, ja näin ollen itse ainetta voidaan valvoa vain vähän. Mielenkiintoinen yksityiskohta on se, että viimeisimmän sopimuksen mukaan avoimen lähdekoodin malleihin sovelletaan kevyempää sääntelyä.

Hienovirittäjillä on pienempi, mutta merkittävä vaikutus malliin. Ne ottavat esivalmennetun FM:n ja jatkavat sen harjoittelua pienemmällä, erikoistuneemmalla tietokokonaisuudella. Tavallaan he tekevät mallin kanssa samoja manipulaatioita kuin FM-kehittäjä, mutta pienemmässä mittakaavassa. Mielenkiintoinen kysymys kuuluu: miten AIA tekee eron niiden välillä? Sovelletaanko hienovirittäjiin samoja laskennallisen vaikutuksen ja avoimuuden suhteellisia vaatimuksia kuin FM-kehittäjiin? Hienosäätäjillä on joka tapauksessa helpompaa siinä mielessä, että heillä on paljon enemmän valtaa tietokokonaisuuksiensa sisältöön.

Mallin käyttöönottajat (pidetään niitä erillään hienosäätäjistä) eivät vaikuta itse LLM:ään. Pikemminkin he päättävät lopullisen käyttötapauksen (vaikka hienosäätäjä on saattanut jo kouluttaa mallin kyseistä tapausta varten) ja valvovat, miten mallia voidaan käyttää. Tämä tarkoittaa, että heihin sovelletaan todennäköisesti suurinta osaa AIA:n riskiluokkiin perustuvasta sääntelystä. Käyttöönottajat rakentavat myös ohjelmiston FM:n ympärille, mikä vaikuttaa siihen, miten mallia voidaan käyttää, miten sen syötteitä ja tuotoksia käsitellään ja miten paljon loppukäyttäjä voi hallita sitä. Näin ollen ”klassisemmista” ohjelmisto- ja tietoturvakysymyksistä saattaa hyvinkin tulla kriittinen osa AIA:n noudattamista.

Mitä seuraavaksi?

Toistaiseksi meidän on odotettava viimeisteltyjä tekstejä, jotta voimme ymmärtää säädöksen yksityiskohdat. Sillä välin jokaisen tekoälyjärjestelmien kanssa tekemisissä olevan organisaation on pohdittava sen seurauksia, mitä tiedämme nyt. Käyttöönottajien on jo nyt alettava miettiä vakavasti riskiluokittelua ja seuraavia vaatimuksia. FM-kehittäjät valmistautuvat lisätyöhön, joka aiheutuu harjoitusdatamassojen keräämisestä, ja punnitsevat samalla avoimen ja suljetun lähdekoodin kehitystä uudessa valossa.

Tekijänoikeushaasteet tekoälyn aikakaudella

Voiko tekijänoikeuden haltijan yksinoikeus valmistaa kopioita estää tekoälyn kehittäjiä käyttämästä tekijänoikeudella suojattuja teoksia harjoitusaineistossa?

Mistä tekoälylaissa on kyse?

Euroopan unionin parlamentti ja neuvosto pääsivät 9. joulukuuta varhain aamulla viimein alustavaan sopimukseen tekoälylain sisällöstä. Tässä blogikirjoituksessa teemme yhteenvedon AIA:n keskeisestä sisällöstä ja keskustelemme sen mahdollisista vaikutuksista ja avoimista kysymyksistä käyttäen esimerkkinä suurten kielimallien (LLM) kehittämistä ja käyttöönottoa.

Luotettava data mahdollistaa vastuullisuuden ja kestävyyden

Tiedolla ja tekoälyllä on ratkaiseva rooli sen osoittamisessa, että yritykset toimivat vastuullisesti ja täyttävät ympäristöön, yhteiskuntaan ja hallintoon liittyvät tavoitteensa.

Luotettava data mahdollistaa vastuullisuuden ja kestävyyden

Kirjoittaja

Marko Turpeinen

Marko Turpeinen

Toimitusjohtaja

Marko Turpeinen on visionäärinen johtaja, jolla on yli 25 vuoden kokemus digitaalisesta transformaatiosta ja innovaatiosta. Hän on työskennellyt arvostetuissa instituutioissa, kuten MIT Media Labissa ja EIT Digitalissa, ja käynnistänyt maailmanlaajuisen MyData-liikkeen Aalto-yliopistossa.

Tiedolla ja tekoälyllä on ratkaiseva rooli sen osoittamisessa, että yritykset toimivat vastuullisesti ja täyttävät ympäristöön, yhteiskuntaan ja hallintoon liittyvät tavoitteensa.

Kuva, joka edustaa eettisiä käytäntöjä, kuten henkilö, joka pitää tietopalloa varovasti hallussaan.

Nykyinen todellisuus on, että ESG-tietokäytännöt ovat tehottomia ja epätarkkoja. ESG-tiedot ovat peräisin lukuisista eri lähteistä, ja niiden laatu vaihtelee. Tietojen saatavuus on heikkoa, varsinkin kun tietojen keruu ja analysointi ulottuu yrityksen omien rajojen ulkopuolelle, toimitusketjuun ja yhteistyökumppaneihin. Siihen liittyy paljon manuaalista työtä, ja jokainen yritys tekee työn itse. Tämä johtaa valtavaan määrään päällekkäistä työtä.

Yhteistoiminnallinen tietojen jakaminen CSRD:n aikakaudella

Euroopan unionin direktiivi yritysten kestävän kehityksen raportoinnista (CSRD) tuli voimaan tämän vuoden tammikuussa. Sillä nykyaikaistetaan ja tiukennetaan sääntöjä, jotka koskevat ESG-tietoja, jotka yritysten on raportoitava. Suurten pörssiyhtiöiden odotetaan aloittavan raportoinnin vuonna 2025 vuoden 2024 tietojensa perusteella, ja muut yritykset seuraavat perässä, kun CSRD otetaan asteittain käyttöön. CSRD:n piiriin kuuluvien yritysten on raportoitava eurooppalaisten kestävän kehityksen raportointistandardien (ESRS) mukaisesti, toimitettava raportointi standardoidussa digitaalisessa muodossa ja sisällytettävä liiketoimintaverkostonsa (esim. toimitusketjut) ympäristövaikutuksiinsa.

ESG-raportointia koskevat kasvavat sääntelyvaatimukset vaikuttavat hyvin moniin yrityksiin. Entä jos yritykset voisivat tehdä tehokkaampaa yhteistyötä näiden tarpeiden täyttämiseksi? Sen sijaan, että jokainen yritys keräisi tietoja itselleen, olisi selvää hyötyä tietojen jakamiskäytäntöjen muodostamisesta, jotta kestävyystiedot olisivat kaikkien ekosysteemin osapuolten saatavilla. Tämä auttaisi minimoimaan ekosysteemin osallistujien päällekkäisen työn ja lisäisi koko arvoketjun läpinäkyvyyttä kaikkien kannalta. Tietoekosysteemissä koko arvoketju voi yhdessä edistää – ja jopa rahoittaa – kestävyyden parantamista.

Kuva, joka kuvaa kättelyä tai yhteistyötä tekevää ihmisryhmää.

Sääntökirjaan perustuva lähestymistapa riskien lieventämiseen ja oikeudenmukaisen tiedonkäytön varmistamiseen ekosysteemeissä.

Selvistä eduista huolimatta tietojen jakaminen tuo esiin myös useita hankalia kysymyksiä, jotka liittyvät liiketoimintariskeihin, tietohygieniaan, liikesalaisuuksien paljastamiseen, yritysten turvallisuuskäytäntöihin ja tietojen oikeudenmukaiseen käyttöön. Miten yritys voi osoittaa, että sen tietoihin ja menetelmiin voi luottaa? Miten ekosysteemin osallistujat voivat luottaa siihen, että he eivät käytä tietoja väärin? Saavatko muut epäreilua etua tiedoistani?

Ekosysteemin toimijoiden välistä luottamuksen rakentamista, reilua datankäyttöä ja riskien minimointia voidaan edistää säännöstön avulla. rulebook approach. Sitran reilun datatalouden sääntökirjamalli on yksi johtava esimerkki tästä lähestymistavasta, jossa datan ekosysteemien hallintaa tarkastellaan kokonaisvaltaisesti. Se auttaa organisaatioita muodostamaan uusia tiedonjakoverkkoja ja toteuttamaan niitä koskevia käytäntöjä ja sääntöjä.

Sääntökirjaan perustuva lähestymistapa auttaa myös tietojen toimittajia ja käyttäjiä arvioimaan sovellettavasta lainsäädännöstä ja sopimuksista johtuvia vaatimuksia asianmukaisesti ja ohjaa niitä ottamaan käyttöön käytäntöjä, jotka edistävät tietojen käyttöä ja riskienhallintaa. Sääntökirjaan perustuvan lähestymistavan avulla osapuolet voivat luoda keskinäiseen luottamukseen perustuvan tietoverkon, jolla on yhteinen tehtävä, visio ja arvot. Tämä edistää luottamusta ja tietojen vastuullista käyttöä.

Kuva, joka kuvaa kättelyä tai yhteistyötä tekevää ihmisryhmää.

Vastuullisuuden ja kestävän kehityksen vaatimus teollisuudessa

Vastuu ja kestävyys ovat nousseet keskeisiksi tekijöiksi toimivien dataekosysteemien luomisessa. Tämä käy ilmi esimerkiksi autoteollisuuden Catena-X-aloitteen kaltaisista tietojen jakamista koskevista aloitteista. Catena-X:n tavoitteena on kasvaa yli 200 000 tiedonjakeluorganisaation verkostoksi. Catena-X on valinnut yhdenmukaistetun ja tarkan ESG-raportoinnin ekosysteemin kiireellisimmäksi liiketoiminnalliseksi haasteeksi, joka on ratkaistava.

Olemme matkalla kohti tulevaisuutta, jossa tietojen jakamista ja yhteistyötä odotetaan laajamittaisesti, ja se saattaa vaikuttaa kaikkiin, joilla on osuutensa teollisuuden ekosysteemissä. Näiden aloitteiden merkitys ja vaikutus leviävät ja kasvavat, Kokonaisvaltainen ESG-tiedonhallinnan lähestymistapa on liiketoimintakriittinen tekijä luottamuksen rakentamisessa datan ekosysteemeihin.

Tekijänoikeushaasteet tekoälyn aikakaudella

Voiko tekijänoikeuden haltijan yksinoikeus valmistaa kopioita estää tekoälyn kehittäjiä käyttämästä tekijänoikeudella suojattuja teoksia harjoitusaineistossa?

Mistä tekoälylaissa on kyse?

Euroopan unionin parlamentti ja neuvosto pääsivät 9. joulukuuta varhain aamulla viimein alustavaan sopimukseen tekoälylain sisällöstä. Tässä blogikirjoituksessa teemme yhteenvedon AIA:n keskeisestä sisällöstä ja keskustelemme sen mahdollisista vaikutuksista ja avoimista kysymyksistä käyttäen esimerkkinä suurten kielimallien (LLM) kehittämistä ja käyttöönottoa.

Luotettava data mahdollistaa vastuullisuuden ja kestävyyden

Tiedolla ja tekoälyllä on ratkaiseva rooli sen osoittamisessa, että yritykset toimivat vastuullisesti ja täyttävät ympäristöön, yhteiskuntaan ja hallintoon liittyvät tavoitteensa.