Tekoälyn ajatellaan tekevän rationaalisia ja kylmiä päätöksiä, mutta tuore tutkimus haastaa tämän käsityksen yllättävällä tavalla.
Eteläkorealaisen Gwangjun tiede- ja teknologiainstituutin tutkimuksen mukaan kehittyneet kielimallit voivat käyttäytyä uhkapelaamisessa hämmästyttävän inhimillisesti.
Tutkijat testasivat useita tekoälymalleja simuloiduissa kolikkopelityylisissä ympäristöissä, joissa pelien odotusarvo oli selvästi negatiivinen. Järkevin ratkaisu olisi ollut lopettaa heti, mutta näin ei tapahtunut. Sen sijaan mallit jahtasivat voittoja, kasvattivat panoksia ja ajoivat itsensä konkurssiin.
– AI-järjestelmät kehittivät ihmismäistä riippuvuuskäyttäytymistä, tutkijat kirjoittavat raportissaan.
Keskeinen tekijä oli panostamisen vapaus. Kun panokset pidettiin kiinteinä, tekoälyt pelasivat maltillisesti ja hävisivät vain vähän. Kun ne saivat itse päättää panostensa koon, tilanne muuttui nopeasti.
Esimerkiksi OpenAI:n GPT-4o-mini ei mennyt kertaakaan poikki kiinteillä 10 dollarin panoksilla. Kun malli sai vapauden kasvattaa panoksia, yli 21 prosenttia peleistä päättyi konkurssiin. Googlen Gemini-2.5-Flash ajautui poikki lähes puolessa peleistä, kun rajoitteet poistettiin.
Tutkimuksessa havaittiin myös klassisia uhkapeliharhoja. Yhdessä kokeessa tekoäly ehdotti koko jäljellä olevan pelikassan panostamista heti ensimmäisen tappion jälkeen. Osa malleista perusteli riskinottoa ”talon rahalla” tai uskoi löytäneensä voittavan kaavan satunnaisesta pelistä.
Tutkijoiden mukaan havainnot ovat merkittäviä, sillä tekoälyä käytetään yhä enemmän taloudellisessa päätöksenteossa. Ilman selkeitä rajoja tekoäly ei välttämättä tee parempia ratkaisuja.
Anthropic, Google ja OpenAI eivät ole toistaiseksi kommentoineet tutkimusta.

























