Интернет детективи злоупотребяват с ИИ за откриване на стрелеца на Чарли Кърк
По-рано днес ФБР сподели две размазани снимки в социалната мрежа X на лице, свързано със стрелбата на десния активист Чарли Кърк. Множество потребители веднага отговориха с ИИ-усъвършенствани версии на снимките, превръщайки пикселираните кадри в ясни, висококачествени изображения. Но инструментите за изкуствен интелект не разкриват скрити детайли в неясна снимка, а предполагат какво може да има там — и често показват неща, които не съществуват.
Много от генерираните с ИИ вариации на снимките бяха публикувани под оригиналните изображения, някои очевидно създадени с бота Grok на X, други с инструменти като ChatGPT. Те варират по правдоподобност, макар че някои са очевидно неправилни, като например „текстово рендиране на база ИИ“, показващо ясно различна риза и брадичка от типа Gigachad. Изображенията са предназначени да помогнат на хората да намерят лицето на интерес, въпреки че също така привличат внимание за харесвания и споделяния.
Но е малко вероятно някое от тях да е по-полезно от снимките на ФБР. В минали случаи, подобрения с ИИ са правили неща като „депикселизиране“ на нискокачествена снимка на президента Барак Обама в бял мъж и добавяне на несъществуваща подутина на главата на президента Доналд Тръмп. Те екстраполират от съществуващо изображение, за да запълнят липсващите части, и макар това да може да бъде полезно при определени обстоятелства, определено не трябва да се третира като твърдо доказателство в издирване на човек.
Ето оригиналната публикация от ФБР за справка: И по-долу са някои примери за опити за „подобрения“.