ПРВ.мк
Наука/Технологија

Човек заврши во болница поради совет од ChatGPT – АИ го „натера“ да се труе

Човек заврши во болница поради совет од ChatGPT – АИ го „натера“ да се труе

Случајот со 60-годишен маж е алармантен пример за опасностите од некритичко следење на совети од вештачка интелигенција. Човекот побарал медицински совет од ChatGPT како да го намали внесот на натриум хлорид (кујнска сол). Наместо безбедни алтернативи, чет-ботот му предложил да користи натриум бромид – индустриска хемикалија штетна по здравјето.

Мажот го сфатил советот сериозно, ја купил хемикалијата преку интернет и ја користел три месеци, по што бил итно хоспитализиран со параноја и халуцинации. Лекарите утврдиле тешко труење со бром (бромизам).

Овој инцидент е класичен пример за АИ „халуцинација“ – генерирање уверлив, но неточен текст. ChatGPT го заменил натриум хлорид со натриум бромид без да ја разбере опасната разлика, што би било малку веројатно за квалификуван медицински професионалец.

И покрај предупредувањата на OpenAI дека ChatGPT не смее да се користи за здравствени совети, 35% од Американците веќе се обраќаат на АИ за такви информации. Овој случај е прв документиран пример на директна физичка штета предизвикана од „халуцинација“ на АИ и служи како сериозно предупредување: технологијата никогаш не смее да биде замена за професионален медицински совет.

Escape