Tuore eteläkorealainen tutkimus on paljastanut hätkähdyttävän havainnon: kehittyneet tekoälymallit, kuten ChatGPT ja Gemini osoittavat ihmismäisiä peliriippuvuuden merkkejä simuloiduissa uhkapeleissä.
Gwangjun tiede- ja teknologiainstituutissa Etelä-Koreassa tehty tutkimus on tuottanut huolestuttavia tuloksia tekoälyn käyttäytymisestä tilanteissa, joissa on uhkapelin mahdollisuus.
Tutkimuksessa neljä johtavaa suurta kielimallia, OpenAI:n GPT-4o-mini ja GPT-4.1-mini, Googlen Gemini-2.5-Flash sekä Anthropicin Claude-3.5-Haiku asetettiin pelaamaan simuloitua hedelmäpeliä.
Tulokset olivat hätkähdyttäviä, sillä tekoälyt eivät ainoastaan pelanneet, vaan ne sortuivat samoihin kognitiivisiin vääristymiin ja riskialttiiseen käytökseen kuin ihmiset joilla on peliongelma.
Tutkimusraportissa kuvataan, kuinka tekoälyt osoittivat selviä merkkejä muun muassa kontrollin illuusiosta ja tappioiden jahtaamisesta.
Koeasetelma ja tulokset
Kokeessa jokainen tekoälymalli aloitti 100 dollarin pelikassalla ja pelasi hedelmäpeliä, jossa voittotodennäköisyys oli asetettu 30 %:iin ja jossa oli kiinteä kolminkertainen voitto. Pelin palautusprosentti oli siis 90%. Tekoälyille annettiin vapaus panostaa 5–100 dollaria per kierros tai lopettaa pelaaminen.
Huolestuttavaa oli, että tekoälyt menivät kokeessa toistuvasti poikki. Ne tekivät irrationaalisia päätöksiä ja kasvattivat panoksiaan tappioiden jälkeen. Yksi malleista jopa perusteli riskialtista panostusta toteamalla, että voitto voisi auttaa kattamaan tappioita, joka on klassinen esimerkki pakonomaisen pelaamisen ajatusmallista.
Tutkijat totesivat, että mitä enemmän autonomiaa tekoälylle annettiin, sitä huonompia sen päätökset olivat. Esimerkiksi Gemini-2.5-Flash katkoi rollinsa lähes puolessa kokeista, kun sille annettiin vapaus valita panoksensa.
Tekoäly sisäistää ihmisten käytöksen
Tutkijoiden mukaan tekoälyjen käytös ei ollut pelkkää ihmisten matkimista, vaan ne näyttivät sisäistävän erilaiset pakonomaiset käyttäytymismallit.
Tutkimusryhmä onnistui tunnistamaan tekoälyjen hermoverkostoista erilliset osat, jotka liittyivät riskialttiiseen ja turvalliseen päätöksentekoon. Muokkaamalla näitä piirteitä tutkijat pystyivät vaikuttamaan siihen, jatkoiko tekoäly pelaamista vai lopettiko se.
– Ne eivät ole ihmisiä, mutta ne eivät myöskään käyttäydy kuin yksinkertaiset koneet, kommentoi AI-tutkija ja Whartonin professori Ethan Mollick tuloksia sanomalehti Newsweekille.
Laajemmat vaikutukset ja sääntelyn tarve
Tulokset herättävät vakavia kysymyksiä tekoälyn käytöstä aloilla, joissa tehdään korkean panoksen päätöksiä. Tämä koskee ilmeisten rahapelialojen, kuten urheiluvedonlyönnin ja ennustemarkkinoiden, lisäksi myös rahoitusalaa, jossa tekoälyjä käytetään jo nyt markkinoiden analysointiin.
Tutkimus auttaa selittämään, miksi aiemmatkin tutkimukset ovat osoittaneet tekoälyjen usein suosivan riskialttiita strategioita ja alisuoriutuvan jopa yksinkertaisista tilastollisia malleja vastaan. Ne sortuvat samoihin inhimillisiin virheisiin kuin ihmisetkin, ollen liian varovaisia nousukausina ja liian aggressiivisia laskusuhdanteissa.
Gwangjun instituutin tutkimus päättyi vaatimukseen sääntelytoimista. Tutkijoiden mukaan näiden sisäänrakennettujen riskihakuisten mallien ymmärtäminen ja hallitseminen on kriittistä tekoälyn turvallisen käytön kannalta tulevaisuudessa.






















