Luonnos hallituksen esitykseksi eräiden tekoälyjärjestelmien valvonnasta annetun lain muuttamiseksi
Lausunnonantajan lausunto
Yleiset kommentit hallituksen esitysluonnoksesta.
Jos organisaationne toimii tekoälyjärjestelmien markkinavalvontaviranomaisena, mitkä ovat näkemyksenne hallituksen esityksen luonnoksen 4.2.7. kappaleeseen ”Tiedonhallinnan muutosvaikutukset” organisaationne koskevan tiedonhallinnan osalta?
Akava kiittää lausuntopyynnöstä, joka koskee tekoälyn sääntelyn testiympäristöä ja siitä annettavia kansallisia säädöksiä EU:n tekoälyasetuksen toimeenpanemiseksi. Akavalla ei ole yksittäisspesifisiä huomioita, vaan testiympäristön luomisen yleisistä periaatteista:
1. Kyseessä on EU-asetus, jolloin kansallinen liikkumavara rajallinen. Toisistaan poikkeavat kansalliset säädökset ja viranomaisrakenteet yleisesti digitalisaatioasioissa on havaittu esimerkiksi Enrico Lettan sisämarkkinaraportissa sekä Mario Draghin kilpailukykyselvityksessä merkittäväksi haasteeksi erityisesti alkaville ja skaalautuville toimijoille. TEM:in 19.5.2025 järjestämässä kuulemistilaisuudessa tuli esiin, että onko yksin suomalaispohjainen testiympäristö ylipäänsä realistinen alue, vaikka sinänsä kansallisessa mallissa on etunsa esimerkiksi kieli- ja läheisyyssyistä. Toimijat ovat usein silti rajat ylittäviä globaaliuteen asti. Kansallisen testiympäristön toimivuus on tärkeää, mutta tekoälyasetuksen toimeenpanon poikkeavuudesta maasta toiseen ei saisi tulla uutta estettä etenkään AI-alan ylikansallinen luonne huomioiden. Kansallisten säädösten vahva koordinointi komission ja jäsenmaiden välillä on siis tarpeen ja komission (ja EU:n AU-toimiston) valmisteilla olevat toimeenpano-ohjeet ovat tärkeitä.
2. Yleisesti säätelyn testiympäristöstä (”hiekkalaatikoista”) tulisi kansallisten toimeenpanosäädöstenkin jäljiltä tasapainoisia siten, että ne mahdollistavat ja kannustavat innovointiin huomioiden samalla esimerkiksi tuote-, työ- ja kuluttajaturvallisuus. On todennäköistä, että näitä säätelyn testiympäristöjä tulee jatkuvasti kehittää etenkin tekoälyn nopean muuttumisen ja etenemisen vuoksi. Kansallisten säädösten toimeenpanossa hiekkalaatikoiden toimivuuden ja tuloksellisuuden seuranta sekä toisaalta tarvittaessa jatkosäädökset on otettava jo nyt huomioon. Valmius nopeisiinkin muutoksin olisi oltava.
3. Hiekkalaatikoiden säädöspoikkeamat – missä tilanteessa niitä myönnetään ja missä ei ja minkälaisina – ovat vielä osin auki oleva kysymys. Toimeenpanossa sekä jäsenvaltioiden että komission välisessä yhteistyössä tulisi kiinnittää riittävää huomioita siihen, että säädöspoikkeamat paitsi mahdollistavat innovoinnin, niin myös turvallisuuskysymysten huomioinnin. Toinen näkökohta on, että myös tässä asiassa voisi helposti tulla kirjavuutta EU-alueen eri hiekkalaatikoiden ja jäsenmaiden välillä. Ei voi olla niin, että yhdessä testiympäristössä joku toiminta on sallittua ja toisessa ei tai erilaisin lähtökohdin.
4. Epäselväksi on näyttänyt jäävän, mikä oikeudellinen ja käytännön merkitys testiympäristön toimenpiteistä saatavilla dokumenteilla on. Mikä merkitys niillä ylipäänsä on, jos ne eivät toimi jonkinlaisina todisteina ja myös rajojen yli sisämarkkina-alueella? Todisteiden tulee olla myös harmonisoitu koko tekoälyasetuksen toimeenpanoalueella.
5. EU:n digitalisaatio- ja AI-säädösten tulkinnasta ja toimeenpanosta on parhaillaan enemmän tai vähemmän avoin jännite USA:n nykyhallinnon kanssa ja asiakokonaisuutta on yritetty kytkeä ns. Trumpin tulleihin ja osaksi kauppasotaa. Yksi keskeisimpiä viestejä USA:n hallinnosta sekä markkinoita hallitsevista tekoäly-yhtiöistä on ollut, että EU:n säädökset ovat liian tiukkoja innovaatioiden näkökulmasta. Tästä syystä tekoälyasetuksen hiekkalaatikot ja niitä koskevat kansalliset toimeenpanosäädökset ovat muuttuneet teknisistä kysymyksistä yhdestä kulmasta geopolitisoituneiksi. Toki innovaatioystävälliset hiekkalaatikot ovat tarpeen, mutta tekoälyasetuksen suojasäännökset (kuluttajat, työntekijät jne). ovat syntyneet tarpeesta. Luomalla turvallisen innovaatioympäristön, huolehtimalla riskien arvioinnista sekä työntekijöiden oikeuksista tekoälyn yhteydessä edistetään esimerkiksi kuluttajien luottamusta AI-ratkaisuihin ja näin innovaatioiden käyttöönottoa.
Ohessa esimerkkinä artikkeli, jonka mukaan USA:ssa alan suurimmat toimivat painavat alas turvallisuusnäkökohtia: https://www.cnbc.com/2025/05/14/meta-google-openai-artificial-intelligence-safety.html
6. TEM:in kuulemistilaisuudessa tulivat esiin testiympäristön resurssointi eli käytännössä, onko henkilökuntaa riittävästi hiekkalaatikkotoimintaan eri muodoissaan. Budjetoitu olisi 40-50 hanketta vuodessa. Asia painottuu myös sen takia, että ministeriön mukaan Suomessa etusijalla olisi neuvontatoiminta, joka on runsaasti henkilötyötä vaativaa. Olisi sinänsä myönteistä, että Suomessa olisi niin paljon AI-aktiviteettiä, että testiympäristö olisi täystyöllistetty. Toisaalta testiympäristön voimavaravajeesta ei saada toisaalta tulla pullonkaula, joka siirrättää alan toimintaa pois Suomessa.
7. TEM:in kuulemistilaisuudessakin tulivat esiin tekijänoikeudet, jotka ovat tekoälyn yhteydessä epäselvässä tilassa. Testiympäristö voi nostaa painotetusti esiin nämä asiat, kun tekijänoikeuksien rajoja saatettaisiin venyttää lisää. Tätä taustaa vasten on entistä tärkeämpää, että komission toimintaohjelmassa mainittuun tekijänoikeuksien AI-selkeyttämiseen ja vahvistamiseen ryhdytään.
8. Testiympäristön säädetty avoimuus on tärkeä kysymys ja on yleisen edun mukaista olla tiedossa minkälaisia hankkeita meneillään. Erityisesti tekoälyasetuksen korkean riskin toiminnaksi määritellyt alat tarvitsevat avoimuutta (esimerkiksi koulutus, terveydenhoito, työelämän asiat).
Penttinen Markus
Akava ry
Lisätiedot
Lausuntopyyntö 25.4.2025, VN/31658/2024
Lausunnon diaarinumero Dnro 049/62/2025
Lausunnon päiväys 26.5.2025
Laatija Markus Penttinen