Tekoäly muuttaa maailmaa ja tarjoaa uusia upeita mahdollisuuksia, kuten automaattista sisällön luomista ja data-analytiikkaa sekä henkilökohtaisia tekoälyavustajia. Vaikka uusi teknologia tuo mukanaan ennennäkemättömiä mahdollisuuksia, tekoälyn käyttöön liittyy myös merkittäviä turvallisuusongelmia, jotka on ratkaistava sen luotettavan ja oikeudenmukaisen käytön varmistamiseksi.
Me Meltwaterilla uskomme, että tekoälyn turvallisuushaasteiden ymmärtäminen ja ratkaiseminen on ensiarvoisen tärkeää teknologian vastuullisen kehityksen kannalta.
Tärkeimmät tekoälyn turvallisuuteen liittyvät huolenaiheet liittyvät siihen, miten teemme näistä järjestelmistä luotettavia, eettisiä ja kaikkia hyödyttäviä. Tähän liittyy riski, jossa tekoälyjärjestelmät voivat aiheuttaa tahatonta haittaa ja tehdä päätöksiä, jotka eivät ole linjassa ihmisten arvojen kanssa. Tekoälyä saatetaan myös käyttää ilkeämielisesti tai järjestelmistä voi pahimmassa tapauksessa tulla niin voimakkaita, että ne ovat hallitsemattomia.
Sisältö
Luotettavuus
Tekoälyn luotettavuudella tarkoitetaan sen kykyä toimia jatkuvan tehokkaasti myös muuttuvissa tai odottamattomissa olosuhteissa.
Jos tekoälymalli ei ole vankka, se voi helposti epäonnistua tai antaa epätarkkoja tuloksia altistuessaan uusille tiedoille tai skenaarioille, joita varten sitä ei oltu koulutettu. Siksi tekoälyn turvallisuuden keskeinen näkökohta on luoda vakaita malleja, jotka pystyvät säilyttämään korkean suoritustason erilaisissa olosuhteissa.
Meltwaterilla käsittelemme tekoälyn luotettavuutta sekä koulutus- että päättelyvaiheessa. Tekoälyjärjestelmien vakauden parantamiseksi epävarmoissa tai vastoinkäymisten aiheuttamissa tilanteissa käytetään useita tekniikoita, kuten vastarintakoulutusta (adversarial training), epävarmuuden kvantifiointia (uncertainty quantification) ja yhdistettyä oppimista (federated learning).
Linjaaminen
Tässä yhteydessä "linjaamisella" tarkoitetaan prosessia, jolla varmistetaan, että tekoälyjärjestelmien tavoitteet ja päätökset ovat sopusoinnussa ihmisten arvojen kanssa.
Väärin ohjelmoitu tekoäly voi tehdä päätöksiä, joita ihmiset pitävät sopimattomina tai haitallisina, vaikka ne olisivat tekoälyn edellytysten mukaan parhaita. Turvallisen tekoälyn aikaansaamiseksi tutkijat työskentelevät järjestelmien parissa, jotka ymmärtävät ja kunnioittavat ihmisen arvoja koko päätöksentekoprosessinsa ajan, jopa oppimisen ja kehittymisen aikana.
Arvojen mukaisten tekoälyjärjestelmien rakentaminen edellyttää jatkuvaa vuorovaikutusta ja palautetta ihmisiltä. Meltwater käyttää laajasti Human In The Loop (HITL) -tekniikoita ja sisällyttää ihmisten antamaa palautetta tekoälyn kehitystyön eri vaiheisiin, mukaan lukien mallin suorituskyvyn online-seurantaan.
Ihmisten arvojen ja mieltymysten oppimiseksi ja kunnioittamiseksi on otettu käyttöön käänteisen vahvistusoppimisen, yhteistoiminnallisen käänteisen vahvistusoppimisen ja avustuspelien kaltaisia tekniikoita. Hyödynnämme myös aggregaatiota ja sosiaalisen valinnan teoriaa käsitellessämme eri ihmisten keskenään ristiriitaisia arvoja.
Vääristymät ja oikeudenmukaisuus
Yksi tekoälyyn liittyvä kriittinen ongelma on sen mahdollisuus vahvistaa olemassa olevia ennakkoluuloja ja vääristymiä, mikä johtaa epäoikeudenmukaisiin tuloksiin.
Tekoälyn vääristymät voivat johtua monista eri tekijöistä, kuten järjestelmien kouluttamiseen käytetystä datasta, algoritmien suunnittelusta tai kontekstista, jossa niitä sovelletaan. Jos tekoälyjärjestelmä koulutetaan sellaisten historiallisten tietojen perusteella, jotka sisältävät puolueellisia päätöksiä, järjestelmä voi tahattomasti ylläpitää näitä ennakkoluuloja.
Esimerkkinä voidaan mainita rekrytointijärjestelmä, joka saattaa suosia epäoikeudenmukaisesti tiettyä sukupuolta, koska se on koulutettu aiempien puolueellisten rekrytointipäätösten perusteella. Oikeudenmukainen toimintatapa tarkoittaa, että tekoälyä käytettäessä pyritään tietoisesti minimoimaan ennakkoluulot ja siten varmistamaan, että järjestelmä kohtelee kaikkia yksilöitä ja ryhmiä tasapuolisesti.
Meltwater tekee puolueellisuusanalyysin kaikille koulutustietoaineistoillemme, sekä omille että avoimen lähdekoodin aineistoille, ja kehottaa kaikkia suuria kielimalleja (LLM) tunnistamaan puolueellisuuden. Hyödynnämme laajasti käyttäytymisen testausta mallien ongelmien tunnistamiseksi, ja olemme ottaneet käyttöön tiukimmat sisällön moderointiasetukset kaikissa tekoälyavustajiemme käyttämissä LLM-malleissa. Tekoälyn ennakkoluulojen vaikutusten minimoimiseksi hyödynnämme tuotteissamme useita tilastollisia ja laskennallisia oikeudenmukaisuusmääritelmiä, kuten (mutta ei ainoastaan) demografinen yhdenvertaisuus, yhtäläiset mahdollisuudet ja yksilöllinen oikeudenmukaisuus.
Tulkittavuus
Tekoälyn läpinäkyvyys, jota usein kutsutaan tulkittavuudeksi tai selitettävyydeksi, on ratkaisevan tärkeä turvallisuuteen liittyvä seikka. Siihen liittyy kyky ymmärtää ja selittää, miten tekoälyjärjestelmät tekevät päätöksiä.
Ilman tulkittavuutta tekoälyn suositukset voivat tuntua mustalta laatikolta, jolloin virheiden tai vääristymien havaitseminen, diagnosointi ja korjaaminen on vaikeaa. Näin ollen tekoälyn tulkittavuuden edistäminen lisää vastuullisuutta, parantaa käyttäjien luottamusta ja edistää tekoälyn turvallisempaa käyttöä. Meltwater käyttää LIME:n ja SHAP:n kaltaisia standarditekniikoita tekoälyjärjestelmien käyttäytymisen ymmärtämiseksi ja niiden läpinäkyvyyden lisäämiseksi.
Hajonta
Tekoälyn hajonnalla tai käsitteiden hajonnalla (eng. AI drift) tarkoitetaan syötetietojen mallien muuttumista ajan myötä. Tämä muutos voi johtaa tekoälyn suorituskyvyn heikkenemiseen, mikä vaikuttaa sen ennusteiden tai suositusten luotettavuuteen ja turvallisuuteen.
Hajonnan havaitseminen ja hallinta on ratkaisevan tärkeää tekoälyjärjestelmien turvallisuuden ja kestävyyden ylläpitämiseksi dynaamisessa maailmassa. Hajonnan tehokas käsittely edellyttää järjestelmän suorituskyvyn jatkuvaa seurantaa ja mallien päivittämistä tarpeen mukaan.
Meltwater valvoo tekoälymallien tekemien päätelmien jakaumia reaaliajassa, jotta mallien hajautuminen ja esiin nousevat datan laatuun liittyvät ongelmat voidaan havaita ajoissa.
Tekoälyn turvallisuus tulevaisuudessa
Tekoälyn turvallisuus on monitahoinen haaste, joka edellyttää tutkijoiden, tekoälyn kehittäjien, poliittisten päättäjien ja koko yhteiskunnan yhteisiä ponnisteluja.
Yrityksenä meidän on osallistuttava sellaisen kulttuurin luomiseen, jossa tekoälyn turvallisuus asetetaan etusijalle. Tähän kuuluu koko alan kattavien turvallisuusnormien määrittäminen, avoimen ja vastuullisen kulttuurin edistäminen sekä vankka sitoutuminen tekoälyn käyttämiseen tavalla, joka on linjassa Meltwaterin keskeisimpien arvojen kanssa.
Sitoutumisen myötä tulee vastuu, ja Meltwaterin tekoälytiimit ovat laatineet tekoälyn eettiset periaatteet, jotka ovat saaneet vaikutteita Googlen ja OECD:n vastuullisuusperiaatteista. Nämä periaatteet muodostavat perustan sille, miten Meltwater tutkii ja kehittää tekoälyä, koneoppimista ja tietotekniikkaa.
1. Meltwaterin tekoälyn eettiset periaatteet hyödyttävät yhteiskuntaa inklusiivisilla ja kestävillä tavoilla aina, kun siihen tarjoutuu mahdollisuus.
2. Vääristymät ja hajonta ovat epäkohtia, jotka tuottavat pettymyksiä liiketoiminnalle ja asiakkaillemme.
3. Turvallisuus, yksityisyys ja turvatoimet ovat tärkeimpiä arvojamme.
4. Dokumentoimme kaiken ja olemme vastuullisia. Avoimuus on tässä avainasemassa.
5. Olemme tutkijoita ja insinöörejä; kaikki on todistettava ja testattava.
6. Käytämme avointa lähdekoodia aina kun mahdollista; tarkistamme kaikki muut lähteet ja oletamme, että ne eivät ole turvallisia.
Meltwater on luonut kumppanuuksia vahvistaakseen sitoutumistaan eettisten tekoälykäytäntöjen edistämiseen.
- Meltwater on perustanut tieteellisen neuvoa-antavan lautakunnan (Scientific Advisory Board, SAB), joka koostuu arvostetuista tieteellisistä tutkijoista ja ammattilaisista, jotka antavat ohjeita Meltwaterin tekoälystrategiaa varten.
- Meltwater noudattaa PR Councilin huhtikuussa 2023 käyttöön ottamia Generative AI -ohjeita.
- Meltwater auttaa tuotemerkkejä, jotka noudattavat WFA GARM's Brand Safety Floor & Suitability Framework -standardeja tarjoamalla brändeille useita tekoälymalleja, joiden avulla voidaan havaita haitallinen, loukkaava ja vaarallinen sisältö tekstissä, äänessä, kuvissa ja videoissa, mukaan lukien virheellisen datan käyttötapaukset Newsguard-kumppanuutemme kautta.
Olemme erittäin ylpeitä siitä, miten pitkälle Meltwater on edennyt eettisen tekoälyn toimittamisessa asiakkaillemme. Uskomme, että Meltwater on valmis jatkamaan mullistavien innovaatioiden tarjoamista älykkyyden tehostamiseksi myös tulevaisuudessa, ja olemme innoissamme siitä, että voimme jatkossakin ottaa johtavan roolin vastuullisten periaatteiden puolustamisessa ja edistää jatkuvaa läpinäkyvyyttä, mikä johtaa asiakkaiden suurempaan luottamukseen.