Sam Altman on amerikkalainen yrittäjä, sijoittaja ja tietojenkäsittelytieteilijä. Altman tunnetaan erityisesti työstä tekoälyn kanssa ja mielipiteistä sen vaikutuksesta yhteiskuntaan.
OpenAI on nähnyt vaivaa varmistaakseen tekoälyn vastuullisen käytön, mutta heidän tulisi silti pysyä jatkuvasti varpaisillaan, koska potentiaalisia riskejä riittää aina. Tässä muutama yleisesti huolenaiheena pidetyistä riskeistä:
- Virhellinen tieto ja manipulaatio: ChatGPT:tä voidaan käyttää virheellisen tiedon jakamiseen, propagandan luomiseen tai julkisen mielipiteen manipulointiin. Jos kukaan ChatGPT:hen suoraa yhteydessä oleva henkilö päättää tarkoituksella nostaa esiin tai vääristää tietoa tai jakaa haitallista tietoa, voi sillä olla valtava vaikutus luottamuksen, päätöksenteon sekä demokratian piirissä.
- Yksityisyys ja turvallisuus: ChatGPT voi käyttää sensitiivistä käyttäjädataa. Teknologian väärinkäyttö voi johtaa yksityisten tietojen uhalle altistumiseen tai tietovuotoihin. Jos turvatoimet sekä protokollat eivät toimi kunnolla, käyttäjätietoja voidaan hyväksikäyttää tai jopa varastaa. Tämä puolestaan johtaa siihen, ettei yksityisyyttä pystytä takaamaan.
- Epäreiluus ja bias: ChatGPT:n kaltaiset tekoälyt oppivat valtavasta määrästä dataa, joka voi johtaa biaksen syntymiseen. Bias on eräänlainen ennakkoluulo tekoälyn datassa eli tekoäly esimerkiksi suosii tiettyä ihmisryhmää. Jos tekoälyn opettamisesta vastaavat henkilöt tai sitä ylläpitävät henkilöt eivät puutu näihin biaksiin tarpeeksi, voi tuloksena olla tiettyjen ihmisryhmien syrjiminen, sosiaalisen epätasapainon syventyminen tai ihmisten ennestään oppimien ennakkoluulojen tukeminen.
- Rikollinen käyttö: Jos teknologia päätyy vääriin käsiin tai sitä käytetään tarkoituksella rikollisesti, voivat tulokset olla karmaisevia. Esimerkiksi ChatGPT voi luoda sisältöä rikollisten käyttöön, kirjoittaa huijausviestejä, löytää huijauksen kohteita tai avustaa sosiaalisissa huijauksissa. Tuloksena on niin taloudelliset vahingot kuin henkilövahingotkin yksityishenkilöille ja yrityksille.