Во студија објавена пред официјалната рецензија, истражувачи од ETH Цириг побарале од 668 корисници на ChatGPT од САД и Велика Британија да споделат копии од својата историја на разговори.
Потоа тие обучиле модел на вештачка интелигенција кој од тие разговори требало да ги препознае карактеристиките на личноста. Истражувачите собрале и анализирале повеќе од 62.000 разговори, категоризирајќи ги според темите на кои биле насочени.
Обучениот модел на вештачка интелигенција потоа се обидел да ја процени веројатноста корисникот да поседува пет карактеристики на личноста познати како „големата петорка“ во психолошките истражувања: пријатност, совесност, емоционална стабилност, екстровертност и отвореност.
Учесниците исто така поминале стандардизиран психолошки тест за да се утврдат нивните доминантни карактеристики на личноста.

Извештајот покажува дека фино прилагодениот модел на вештачка интелигенција успеал да ги препознае карактеристиките на корисниците со точност до 61 %. Вештачката интелигенција била особено успешна во предвидување на пријатноста и емоционалната стабилност, додека имала потешкотии со проценката на совесноста.
Студијата исто така покажала дека вештачката интелигенција била поуспешна кога имала пристап до подолга историја на разговори, што сугерира дека веројатноста за идентификација на личноста се зголемува колку повеќе корисникот користи AI системи.
Иако ризиците за поединците се релативно мали, истражувачите предупредуваат на „значителни ризици од големи размери“ доколку злонамерни актери почнат да ги злоупотребуваат податоците за личноста на корисниците.

Како пример, тие сметаат дека таквите податоци би можеле да овозможат „обемни манипулативни кампањи што шират дезинформации и/или политичка пропаганда“.
Истражувачите се надеваат дека нивните наоди би можеле да се искористат за развој на алатки што ќе го намалат ризикот од прекумерно споделување лични податоци со вештачката интелигенција, како на пример системи што автоматски би ги отстранувале идентификациските податоци.








