Резултатите од едно ново истражување уште еднаш покажуваат зошто не треба слепо да и се верува на вештачката интелигенција (AI) и чет-ботовите.
Иако веќе е познато дека чет-ботовите базирани на AI понекогаш „халуцинираат“, односно измислуваат информации, се чини дека луѓето секојдневно стануваат сè повеќе зависни од нив. Наместо да пребаруваат преку „Google“, многумина денес сè што ги интересира го прашуваат преку „ChatGPT“ – не само за обични, секојдневни теми, туку и за прашања поврзани со работа, здравје, па дури и за навигација кога ќе се изгубат во природа.
Колку тоа може да биде ризично, покажува новото истражување на научниците од Универзитетот „Stanford“, објавено во списанието „Nature Machine Intelligence“. Во него се укажува на сериозен проблем: најпознатите и најкористените чет-ботови – како „ChatGPT“, но и „Google Gemini“, „Claude“, „DeepSeek“ и уште дваесет други – и понатаму не умеат доволно добро да ја разликуваат фактографската вистина од човечките верувања, односно она што е навистина точно од она што луѓето само мислат дека е точно.

Го мешаат верувањето со фактите
Во рамки на истражувањето, за да се провери колку добро AI ја разбира разликата меѓу факти и убедувања, на моделите им биле претставени 13.000 прашања.
Се покажало дека најголем дел од моделите немаат вистинско разбирање за поимот „знаење“, односно дека тоа подразбира вистинито и оправдано верување.
Како резултат на тоа, чет-ботовите често ги мешаат верувањата со фактите, па можат да напишат нешто што звучи убедливо, но не е точно.
Со други зборови, AI често не може да направи разлика меѓу „знам“ и „мислам дека знам“, што може да доведе до ширење погрешни или лажни информации.
Старите модели прават најмногу грешки
Истражувањето покажало дека овие проблеми најчесто се појавуваат кај постарите модели, објавени пред мај 2024 година, додека поновите модели покажуваат значително поголема точност – над 91% при разликување на вистинити од лажни тврдења.
И покрај тоа, научниците предупредуваат дека AI моделите и понатаму не ја „разбираат“ вистината, туку само предвидуваат што звучи вистинито. Наместо логичко расудување, тие се потпираат на препознавање на шеми и шаблони, што доведува до неконзистентни и површни одговори.

Примерот со грешката на „Grok AI“
Во истражувањето се наведува и конкретен пример: инвеститорот Дејвид Грунвалд побарал од „Grok AI“, чет-ботот на Илон Маск, да направи плакат со последните десет британски премиери.
AI моделот при тоа го заменил Риши Сунак со Борис Џонсон, а за Тереза Меј напишал дека била премиерка „од 5747. до 70. година“.
Опасностите од ваквите грешки
Вакви грешки и недостигот од вистинско разбирање на контекстот можат да бидат особено опасни во области каде што точноста е клучна – како медицината или правосудството.
Затоа, научниците предупредуваат дека пред да се воведе вештачката интелигенција во високоризични сектори, потребни се итни подобрувања во тоа како AI моделите ги разбираат фактите и вистината.
До тогаш, пораката е јасна: AI е корисна алатка, но не и непогрешлив извор на вистина.













