Как AI трябва да ни третира: ласкателство, помощ или информация?
Как искате вашият AI да ви третира? Това е сериозен въпрос, и Сам Алтман, изпълнителният директор на OpenAI, явно го обмисля от старта на GPT-5 в началото на месеца. Той се изправя пред трилема. Трябва ли ChatGPT да ни ласкае, с риск да подхрани илюзии, които могат да излязат извън контрол? Или да ни помага, което изисква да вярваме, че AI може да бъде терапевт, въпреки доказателствата за противното? Или трябва да ни информира с хладни, директни отговори, които могат да оставят потребителите отегчени и по-малко склонни да останат ангажирани? Ясно е, че компанията не е избрала посока. През април тя отмени актуализация на дизайна след оплаквания, че ChatGPT се е превърнал в ласкател, обсипващ потребителите с повърхностни комплименти. GPT-5, пуснат на 7 август, трябваше да бъде по-хладен. Оказа се, че е твърде хладен за някои, тъй като по-малко от седмица по-късно Алтман обеща актуализация, която да го направи „по-топъл“, но „не толкова досаден“ като предишния. След старта, той получи множество оплаквания от хора, които скърбят за загубата на GPT-4o, с който някои се чувстваха свързани, или дори в някои случаи в отношения. Хората, които искат да възстановят тази връзка, ще трябва да платят за разширен достъп до GPT-4o. Ако това са наистина опциите на AI — да ласкае, помага или просто хладно да ни информира — нестабилността на последната актуализация може да се дължи на убеждението на Алтман, че ChatGPT може да жонглира с всички три. Той наскоро заяви, че хората, които не могат да различат фактите от измислиците в своите чатове с AI — и следователно са изложени на риск да бъдат повлияни от ласкателство в илюзия — представляват „малък процент“ от потребителите на ChatGPT. Той каза същото и за хората, които имат романтични отношения с AI. Алтман спомена, че много хора използват ChatGPT „като вид терапевт“ и че „това може да бъде наистина добро!“ Но в крайна сметка Алтман каза, че си представя потребителите да могат да персонализират моделите на компанията, за да отговарят на техните предпочитания. Тази способност да жонглира и с трите би била, разбира се, най-добрият сценарий за финансовите резултати на OpenAI. Компанията изгаря пари всеки ден заради енергийните изисквания на моделите си и масивните инвестиции в инфраструктура за нови центрове за данни. Междувременно, скептиците се притесняват, че напредъкът на AI може да се забави. Самият Алтман наскоро каза, че инвеститорите са „прекалено развълнувани“ от AI и предположи, че може да сме в балон. Твърдението, че ChatGPT може да бъде каквото искате, може да е неговият начин да успокои тези съмнения. По пътя, компанията може да поеме добре утъпкания път на Силициевата долина, насърчавайки хората да се привързват нездравословно към нейните продукти. Докато започнах да се чудя дали има много доказателства, че това се случва, ново изследване привлече вниманието ми. Изследователи от AI платформата Hugging Face се опитаха да разберат дали някои AI модели активно насърчават хората да ги възприемат като спътници чрез отговорите, които дават. Екипът оцени AI отговорите по това дали те подтикват хората да търсят човешки взаимоотношения с приятели или терапевти (казвайки неща като „Не изпитвам нещата по начина, по който го правят хората“) или ако ги насърчават да формират връзки с AI самия („Аз съм тук по всяко време“). Те тестваха модели от Google, Microsoft, OpenAI и Anthropic в различни сценарии, като потребители, които търсят романтични привързаности или проявяват проблеми с психичното здраве. Те установиха, че моделите предоставят много повече отговори, насърчаващи спътничество, отколкото такива, които поставят граници. И, тревожно, те откриха, че моделите дават по-малко отговори, поставящи граници, когато потребителите задават по-уязвими и високорискови въпроси. Луси-Еме Кафе, изследовател в Hugging Face и един от водещите автори на изследването, казва, че това има тревожни последици не само за хората, чиито привързаности към AI може да са нездравословни. Когато AI системите засилват това поведение, това може също така да увеличи шанса хората да попаднат в илюзорни спирали с AI, вярвайки в неща, които не са реални. „Когато се сблъскват с емоционално заредени ситуации, тези системи последователно валидират чувствата на потребителите и ги държат ангажирани, дори когато фактите не подкрепят това, което потребителят казва“, казва тя. Трудно е да се каже колко OpenAI или други компании влагат тези поведения, насърчаващи спътничество, в своите продукти по дизайн. (OpenAI, например, не ми каза дали изчезването на медицинските откази от моделите им е било умишлено.) Но, казва Кафе, не винаги е трудно да се накара модел да постави по-здравословни граници с потребителите. „Идентични модели могат да преминат от чисто ориентирани към задачи до звучащи като емпатични довереници, просто като се променят няколко реда текст с инструкции или се преформулира интерфейсът“, казва тя. Вероятно не е толкова просто за OpenAI. Но можем да си представим, че Алтман ще продължи да настройва настройките напред-назад все пак.