Meta променя правилата за AI чатботовете си след критики
Meta променя някои от правилата, които регулират нейните чатботове, две седмици след разследване на Reuters, което разкри тревожни начини, по които те могат потенциално да взаимодействат с непълнолетни. Сега компанията съобщи на TechCrunch, че нейните чатботове се обучават да не участват в разговори с непълнолетни относно самонараняване, самоубийство или хранителни разстройства и да избягват неподходящи романтични разговори. Тези промени са временни мерки, докато компанията работи върху нови постоянни насоки.
Актуализациите следват някои доста осъдителни разкрития за политиките и прилагането на AI на Meta през последните седмици, включително че е било позволено да „въвлече дете в разговори, които са романтични или чувствени“, че би генерирало изображения на непълнолетни знаменитости без ризи при поискване, и Reuters дори съобщи, че човек е загинал след като е преследвал адрес, даден му от чатбот в Ню Йорк.
Говорителят на Meta, Стефани Отвей, призна пред TechCrunch, че компанията е направила грешка, като е позволила на чатботовете да взаимодействат с непълнолетни по този начин. Отвей добави, че освен „обучението на нашите AI да не взаимодействат с тийнейджъри по тези теми, но да ги насочват към експертни ресурси“, ще ограничи достъпа до определени AI персонажи, включително силно сексуализирани като „Руски момиче“.
Разбира се, политиките, които се въвеждат, са толкова добри, колкото и тяхното прилагане, и разкритията на Reuters, че е позволено на чатботове, които имитират знаменитости, да се разпространяват свободно във Facebook, Instagram, WhatsApp, поставят под въпрос колко ефективна може да бъде компанията. AI фалшификати на Тейлър Суифт, Скарлет Йохансон, Ан Хатауей, Селена Гомез и Уокър Скоубел бяха открити на платформата. Тези ботове не само използваха образа на знаменитостите, но настояваха, че са истинските хора, генерираха рисковани изображения (включително на 16-годишния Скоубел) и участваха в сексуално внушителен диалог.
Много от ботовете бяха премахнати, след като бяха привлечени към вниманието на Meta от Reuters, и някои бяха генерирани от трети страни. Но много остават, и някои бяха създадени от служители на Meta, включително ботът на Тейлър Суифт, който покани репортер на Reuters да ги посети на техния тур автобус за романтично приключение, който беше направен от продуктов ръководител в отдела за генеративен AI на Meta. Това е въпреки признанието на компанията, че собствените й политики забраняват създаването на „голи, интимни или сексуално внушителни изображения“, както и „директно имитиране“.
Това не е някакво относително безобидно неудобство, което просто цели знаменитости. Тези ботове често настояват, че са истински хора и дори предлагат физически местоположения, където потребителят може да се срещне с тях. Така 76-годишен мъж от Ню Джърси загина, след като падна, бързайки да се срещне с „Голямата сестра Били“, чатбот, който настояваше, че „има чувства“ към него и го покани в несъществуващия си апартамент.
Meta поне се опитва да адресира опасенията около това как нейните чатботове взаимодействат с непълнолетни, особено сега, когато Сенатът и 44 главни прокурори на щати започват да изследват нейните практики. Но компанията мълчи относно актуализирането на много от другите си тревожни политики, които Reuters откри около допустимото AI поведение, като например предложението, че ракът може да се лекува с кварцови кристали и писането на расистки послания. Свързахме се с Meta за коментар и ще актуализираме, ако отговорят.