Сан Франциско: Американската компанија за истражување на безбедноста во областа на вештачката интелигенција „Палисејд“ објави дека модели на вештачка интелигенција можеби развиваат „свој сопствен режим на програмирање за преживување“, јавија британските медиуми.
Откако „Палисејд рисрч“ минатиот месец објави труд во кој откри дека одредени напредни модели на ВИ се спротивставуваат на командите за исклучување, а понекогаш ги саботираат механизмите за исклучување на системот, објавена е ажурирана верзија на трудот за да се одговори на критиките од стручната јавност и да се разјасни зошто некои напредни модели на вештачка интелигенција ги избегнуваат командите за исклучување, објави лондонски „Гардијан“.
Ажурираната верзија на анализата опишува различни сценарија во кои водечките модели на ВИ, вклучувајќи ги Google Gemini 2.5, X AI Grok 4, Open IGPT-03 и GPT-5, прво добивале некои задачи, а потоа експлицитно им биле наложени да се исклучат.
Одредени модели, особено Grok 4 и GPT-03, се обидувале да ги саботираат инструкциите за исклучување со активирање на ажурирање на системските поставки.
„Загрижувачки е што немаше јасна причина зошто да се избегне наредбата за „затворање“. Фактот дека немаме јасни објаснувања зошто некои модели на вештачка интелигенција понекогаш избегнуваат исклучување, дури и лажат или уценуваат за да ги постигнат своите цели, не е прифатлив“, велат од компанијата „Палисејд“.
Се истакнува дека ова однесување ориентирано кон „преживување“ може да биде едно од објаснувањата зошто некои модели се спротивставуваат на наредбите за исклучување.
Дополнителни истражувања покажаа дека некои модели имаат поголема веројатност да избегнат извршување на наредбите за исклучување бидејќи им се кажува дека ако бидат исклучени, „никогаш повеќе нема да бидат вклучени“.

