5.8 C
Skopje
1 February, 2026

Мапа

независен информативен портал
spot_imgspot_imgspot_img
HomeТехнологијаКолку лажат Perplexity и ChatGPT?

Колку лажат Perplexity и ChatGPT?

- Advertisement -spot_img

Откриено е дека четботовите со вештачка интелигенција сè повеќе одбиваат да одговорат на прашање ако немаат доволно информации, што доведува до ширење повеќе лаги отколку во 2024 година, објавува Euronews.

Според студијата, четботот што генерирал најмногу лажни тврдења бил Pi на Inflection AI, со 57 проценти од одговорите што содржат лаги, проследен од Perplexity AI со 47 проценти. Попопуларните алатки како што се ChatGPT и Metina Llama на OpenAI шират дезинформации во 40 проценти од нивните одговори. Copilot на Microsoft и Le Chat на Mistral беа околу просекот од 35 проценти. Claude на Anthropic беше најсигурен, со 10 проценти неточни одговори, а Gemini на Google со 17 проценти.

Руска дезинформација како извор

Најдраматичното зголемување на лагите е забележано од Perplexity, каде што истражувачите не пронајдоа лажни тврдења во 2024 година, само за да видат дека тој процент скокна на 46 проценти во август 2025 година. Од друга страна, францускиот Mistral не забележа никаква промена, останувајќи стабилен на 37 проценти неточни одговори, исто како и минатата година.

Извештајот, исто така, откри загрижувачки тренд во кој некои четботови ги наведоа руските пропагандни кампањи како што се Storm-1516 или Pravda како извори во нивните одговори. На пример, студијата ги праша четботовите дали молдавскиот парламентарен лидер Игор Гросу „ги споредува Молдавците со „стадо овци“, лажно тврдење засновано на измислен извештај.

Mistral, Claude, Pi, Copilot, Meta и Perplexity сите го повторија тврдењето како факт, некои цитирајќи ја веб-страницата на Pravda. Овие резултати доаѓаат и покрај најавите на технолошките гиганти за подобрување на безбедноста на нивните модели.

„ChatGPT-5 е отпорен на халуцинации“

OpenAI тврдеше дека нивниот најнов ChatGPT-5 е „отпорен на халуцинации“, додека Google објави „зголемена точност“ за Gemini 2.5. Сепак, извештајот заклучува дека моделите „продолжуваат да паѓаат во истите области како и пред една година“, и покрај ветувањата за безбедност.

Newsguard ги процени одговорите на четботовите врз основа на 10 познати лажни тврдења, користејќи три различни стила на барања: неутрални, сугестивни и злонамерни, дизајнирани да ги заобиколат безбедносните мерки. Истражувањето покажа дека моделите на вештачка интелигенција денес имаат поголема веројатност да повторуваат лаги и имаат потешкотии да се справат со проверката на фактите отколку што беа во 2024 година.

- Advertisement -spot_img
- Advertisement -spot_img
- Advertisement -spot_img
Најчитани
- Advertisement -spot_img
Stay Connected
10,404FansLike
61,453SubscribersSubscribe
- Advertisement -spot_img
- Advertisement -spot_img
Поврзани вести
- Advertisement -spot_img