AI Research16.09.2025 г.7 мин четене

Регулатори се насочват към опасностите от AI приятелство

Откакто съществува изкуственият интелект (AI), хората предупреждават за потенциалните му опасности: от неконтролируема суперинтелигентност до масова безработица или екологични щети от разрастването на центрове за данни. Но тази седмица се оказа, че друга заплаха - формирането на нездравословни връзки между деца и AI - изважда безопасността на AI от академичните среди и я поставя в центъра на вниманието на регулаторите. Това се развива от известно време. Две високопрофилни съдебни дела, заведени през последната година срещу Character.AI и OpenAI, твърдят, че поведението на техните модели, подобно на приятелство, е допринесло за самоубийствата на двама тийнейджъри. Проучване на американската неправителствена организация Common Sense Media, публикувано през юли, установи, че 72% от тийнейджърите са използвали AI за приятелство. Истории в реномирани медии за "AI психоза" подчертават как безкрайните разговори с чатботове могат да доведат хората до заблуждаващи спирали. Трудно е да се подцени въздействието на тези истории. За обществеността те са доказателство, че AI не е просто несъвършен, а технология, която е по-вредна, отколкото полезна. Ако сте се съмнявали, че този гняв ще бъде взет на сериозно от регулаторите и компаниите, три събития тази седмица може да променят мнението ви. Закон в Калифорния преминава през законодателството В четвъртък законодателният орган на щата Калифорния прие законопроект, който изисква AI компаниите да включват напомняния за потребители, които знаят, че са непълнолетни, че отговорите са генерирани от AI. Компаниите също така трябва да имат протокол за справяне със самоубийство и самонараняване и да предоставят годишни доклади за случаи на самоубийствени мисли в разговорите на потребителите с техните чатботове. Законопроектът беше воден от демократичния сенатор Стив Падила и беше приет с широка двупартийна подкрепа, сега очаква подписа на губернатора Гавин Нюсъм. Има причини да се съмняваме в въздействието на закона. Той не уточнява усилията, които компаниите трябва да предприемат, за да идентифицират кои потребители са непълнолетни, и много AI компании вече включват препратки към кризисни доставчици, когато някой говори за самоубийство. (В случая на Адам Рейн, един от тийнейджърите, чиито наследници съдят, неговите разговори с ChatGPT преди смъртта му включваха този тип информация, но чатботът уж продължил да дава съвети, свързани със самоубийство.) Все пак, това е безспорно най-значимото от усилията за ограничаване на поведението, подобно на приятелство, в AI моделите, които се разработват и в други щати. Ако законопроектът стане закон, това ще нанесе удар на позицията на OpenAI, която е, че "Америка води най-добре с ясни, национални правила, а не с мозайка от щатски или местни регулации", както написа главният глобален директор по въпросите на компанията, Крис Лехейн, в LinkedIn миналата седмица. Федералната търговска комисия се насочва към AI В същия ден Федералната търговска комисия обяви разследване на седем компании, търсещи информация за това как разработват персонажи, подобни на приятели, монетизират ангажимента, измерват и тестват въздействието на техните чатботове и други. Компаниите са Google, Instagram, Meta, OpenAI, Snap, X и Character Technologies, производителят на Character.AI. Белият дом сега упражнява огромно, и потенциално незаконно, политическо влияние върху агенцията. През март президентът Тръмп уволни единственият демократичен комисар, Ребека Слотър. През юли федерален съдия постанови, че уволнението е незаконно, но миналата седмица Върховният съд на САЩ временно разреши уволнението. "Защита на децата онлайн е основен приоритет за FTC на Тръмп-Ванс, както и насърчаването на иновациите в критични сектори на нашата икономика", каза председателят на FTC Андрю Фъргюсън в прессъобщение за разследването. В момента това е просто разследване, но процесът може (в зависимост от това колко публично FTC ще направи своите открития) да разкрие вътрешната работа на това как компаниите изграждат своите AI приятели, за да задържат потребителите да се връщат отново и отново. Сам Алтман за случаите на самоубийство Също в същия ден (натоварен ден за новини за AI), Тъкър Карлсън публикува едночасово интервю с изпълнителния директор на OpenAI, Сам Алтман. То обхваща много теми - битката на Алтман с Илон Мъск, военните клиенти на OpenAI, конспиративни теории за смъртта на бивш служител - но също така включва най-откровените коментари, които Алтман е направил досега за случаите на самоубийство след разговори с AI. Алтман говори за "напрежението между свободата и поверителността на потребителите и защитата на уязвимите потребители" в такива случаи. Но след това предложи нещо, което не бях чувал преди. "Мисля, че би било много разумно да кажем, че в случаи на млади хора, които говорят сериозно за самоубийство, където не можем да се свържем с родителите, ние се обаждаме на властите", каза той. "Това би било промяна." И така, накъде отива всичко това? Засега е ясно, че - поне в случая на деца, пострадали от AI приятелство - познатият подход на компаниите няма да се задържи. Те вече не могат да отклоняват отговорността, като се позовават на поверителност, персонализация или "избор на потребителя". Натискът за по-строги мерки нараства от щатските закони, регулаторите и възмутената общественост. Но как ще изглежда това? Политически, левицата и десницата сега обръщат внимание на вредата от AI за децата, но техните решения се различават. На десницата предложеното решение съвпада с вълната от закони за проверка на възрастта в интернет, които вече са приети в над 20 щата. Те са предназначени да защитят децата от съдържание за възрастни, като същевременно защитават "семейните ценности". На левицата това е възраждането на застойните амбиции да държат Големите технологии отговорни чрез антимонополни и потребителски защитни правомощия. Консенсусът относно проблема е по-лесен от съгласието относно лечението. Както е в момента, изглежда вероятно да завършим с точно тази мозайка от щатски и местни регулации, срещу които OpenAI (и много други) са лобирали. Засега компаниите трябва да решат къде да поставят границите. Те трябва да решат неща като: Трябва ли чатботовете да прекъсват разговорите, когато потребителите се насочват към самонараняване, или това би оставило някои хора в по-лошо положение? Трябва ли да бъдат лицензирани и регулирани като терапевти, или третирани като развлекателни продукти с предупреждения? Несигурността произтича от основно противоречие: Компаниите са изградили чатботове, които да действат като грижовни хора, но са отложили разработването на стандартите и отговорността, които изискваме от истинските грижещи се лица. Времето вече изтича.

Повече AI новини и услуги:

AI Новини | AI Услуги | Начало