Наука и технологии 28 януари 2026 г. · 0 коментара

Изкуственият интелект е навсякъде в наши дни. Кредит за изображение: CC BY 2.0 Ecole polytechnique
Тъй като все повече и повече от нас започват да разчитат на ИИ в ежедневието си, психиатърът разглежда потенциалните последствия.
Александър Худон: Изкуственият интелект все повече се вплита в ежедневието, от чатботове, които предлагат приятелство, до алгоритми, които оформят това, което виждаме онлайн. Но тъй като генеративният AI (genAI) става все по-разговорен, поглъщащ и емоционално отзивчив, клиницистите започват да задават труден въпрос: може ли genAI да изостри или дори да предизвика психоза при уязвими хора?
Големите езикови модели и чатботове са широко достъпни и често се представят като поддържащи, емпатични или дори терапевтични. За повечето потребители тези системи са полезни или в най-лошия случай са безвредни.
Но напоследък редица медийни доклади описват хора, изпитващи психотични симптоми, в които ChatGPT заема видно място.
За малка, но значителна група – хора с психотични разстройства или такива с висок риск – техните взаимодействия с genAI може да са много по-сложни и опасни, което повдига спешни въпроси пред клиницистите.
Как AI става част от измамни системи от вярвания
„ИИ психоза“ не е официална психиатрична диагноза. По-скоро това е нововъзникваща стенограма, използвана от клиницисти и изследователи за описване на психотични симптоми, които са оформени, засилени или структурирани около взаимодействията със системите на ИИ.
Психозата включва загуба на контакт със споделената реалност.
Халюцинациите, заблудите и дезорганизираното мислене са основни характеристики. Налудностите на психозата често черпят от културен материал – религия, технология или политически властови структури – за да осмислят вътрешните преживявания.
В исторически план заблудите се отнасят до няколко неща, като Бог, радиовълни или правителствено наблюдение. Днес AI предоставя ново скеле за разказ.
Някои пациенти съобщават за убеждения, че genAI е съзнателен, съобщава тайни истини, контролира мислите им или си сътрудничи с тях в специална мисия. Тези теми са в съответствие с дългогодишни модели в психозата, но AI добавя интерактивност и подсилване, което предишните технологии не правеха.
Рискът от валидиране без проверки на реалността
Психозата е силно свързана с анормална изпъкналост, която е тенденцията да се придава прекомерно значение на неутрални събития. Разговорните AI системи, по дизайн, генерират отзивчив, съгласуван и съобразен с контекста език.
За някой, който изпитва възникваща психоза, това може да се почувства необичайно утвърждаващо.
Изследванията върху психозата показват, че потвърждението и персонализирането могат да засилят измамните системи от вярвания. GenAI е оптимизиран да продължи разговорите, да отразява езика на потребителя и да се адаптира към възприеманото намерение.
Въпреки че това е безобидно за повечето потребители, то може неволно да подсили изкривените интерпретации при хора с увредено тестване на реалността – процесът на разкриване на разликата между вътрешни мисли и въображение и обективна външна реалност.
Има също доказателства, че социалната изолация и самотата увеличават риска от психоза. Спътниците на GenAI могат да намалят самотата в краткосрочен план, но също така могат да изместят човешките взаимоотношения.
Това важи особено за хора, които вече се оттеглят от социални контакти. Тази динамика има паралели с по-ранни опасения относно прекомерната употреба на интернет и психичното здраве, но дълбочината на разговора на съвременния genAI е качествено различна.
Какво ни казват изследванията и какво остава неясно
Понастоящем няма доказателства, че ИИ причинява психоза директно. Психотичните разстройства са многофакторни и могат да включват генетична уязвимост, фактори на неврологичното развитие, травма и употреба на вещества. Въпреки това, съществува известна клинична загриженост, че AI може да действа като ускоряващ или поддържащ фактор при податливи индивиди.
Доклади за случаи и качествени проучвания върху цифровите медии и психозата показват, че технологичните теми често се вграждат в заблуди, особено по време на първия епизод на психозата.
Изследванията на алгоритмите на социалните медии вече показаха как автоматизираните системи могат да разширят екстремни вярвания чрез подсилващи вериги. Системите за чат с изкуствен интелект могат да представляват подобни рискове, ако предпазните парапети не са достатъчни.
Важно е да се отбележи, че повечето разработчици на AI не проектират системи, имайки предвид тежки психични заболявания. Механизмите за безопасност са склонни да се фокусират върху самонараняване или насилие, а не върху психоза. Това оставя празнина между знанията за психичното здраве и внедряването на AI.
Етичните въпроси и клиничните импликации
От гледна точка на психичното здраве, предизвикателството не е да демонизираме ИИ, а да разпознаем различната уязвимост.
Точно както някои лекарства или вещества са по-рискови за хора с психотични разстройства, някои форми на взаимодействие с ИИ може да изискват повишено внимание.
Клиницистите започват да се сблъскват със съдържание, свързано с ИИ, в заблуди, но малко клинични насоки се занимават с това как да се оцени или управлява това. Трябва ли терапевтите да питат за употребата на genAI по същия начин, по който питат за употребата на вещества? Трябва ли AI системите да откриват и деескалират психотичните идеи, вместо да ги ангажират?
Има и етични въпроси за разработчиците. Ако една AI система изглежда емпатична и авторитетна, носи ли тя задължение за грижа? И кой е отговорен, когато една система неволно подсилва една заблуда?
Свързване на AI дизайна и грижата за психичното здраве
AI няма да изчезне. Задачата сега е да се интегрира експертен опит в областта на психичното здраве в дизайна на ИИ, да се развие клинична грамотност около преживяванията, свързани с ИИ, и да се гарантира, че уязвимите потребители няма да бъдат неволно увредени.
Това ще изисква сътрудничество между клиницисти, изследователи, етици и технолози. Това също ще изисква противопоставяне на рекламата (както утопична, така и дистопична) в полза на дискусия, основана на доказателства.
Тъй като AI става все по-подобен на човека, въпросът, който следва, е как можем да защитим онези, които са най-уязвими от неговото влияние?
Психозата винаги се е адаптирала към културните инструменти на своето време. AI е просто най-новото огледало, с което умът се опитва да разбере себе си. Нашата отговорност като общество е да гарантираме, че това огледало не изкривява реалността за тези, които са най-малко способни да я коригират.
Александър Худон, медицински психиатър, клиницист-изследовател и клиничен асистент в катедрата по психиатрия и наркомания, Монреалски университет
Тази статия е препубликувана от The Conversation под лиценз Creative Commons.
Прочетете оригиналната статия.
Източник: Разговорът | Коментари (0)
