Изкуственият интелект помага в борбата с детската експлоатация
Изкуственият интелект доведе до рязко увеличение на синтетичните изображения на детска сексуална злоупотреба. Водещият следовател на детска експлоатация в САЩ експериментира с използването на AI за разграничаване на генерирани от AI изображения от такива, които показват реални жертви, според ново правителствено съобщение. Центърът за киберпрестъпления на Министерството на вътрешната сигурност, който разследва детска експлоатация през международни граници, е сключил договор на стойност 150 000 долара със софтуерната компания Hive AI от Сан Франциско, която може да идентифицира дали дадено съдържание е генерирано от AI. Съобщението, публикувано на 19 септември, е силно редактирано и съоснователят и изпълнителен директор на Hive, Кевин Гуо, заяви пред MIT Technology Review, че не може да обсъжда детайлите на договора, но потвърди, че той включва използването на алгоритмите на компанията за откриване на материали за детска сексуална злоупотреба (CSAM). Съобщението цитира данни от Националния център за изчезнали и експлоатирани деца, който отчита увеличение от 1,325% на инцидентите, свързани с генериращ AI през 2024 г. "Огромният обем на цифрово съдържание, циркулиращо онлайн, налага използването на автоматизирани инструменти за ефективно обработване и анализ на данни," се казва в съобщението. Първият приоритет на следователите за детска експлоатация е да намерят и спрат всяка злоупотреба, която се случва в момента, но напливът от AI-генерирани CSAM затруднява следователите да разберат дали изображенията показват реална жертва, която в момента е в опасност. Инструмент, който успешно може да маркира реални жертви, би бил огромна помощ при опитите им да приоритизират случаите. Идентифицирането на AI-генерирани изображения "гарантира, че разследващите ресурси са фокусирани върху случаи, включващи реални жертви, максимизирайки въздействието на програмата и защитата на уязвими индивиди," се казва в съобщението. Hive AI предлага AI инструменти, които създават видеоклипове и изображения, както и набор от инструменти за модериране на съдържание, които могат да маркират насилие, спам и сексуален материал и дори да идентифицират знаменитости. През декември MIT Technology Review съобщи, че компанията продава своята технология за откриване на deepfake на американската армия. За откриване на CSAM, Hive предлага инструмент, създаден с Thorn, неправителствена организация за защита на децата, който компаниите могат да интегрират в своите платформи. Този инструмент използва "хешираща" система, която присвоява уникални идентификатори на съдържание, известно на следователите като CSAM, и блокира този материал от качване. Този инструмент и други подобни на него са станали стандартна линия на защита за технологичните компании. Но тези инструменти просто идентифицират дадено съдържание като CSAM; те не откриват дали е генерирано от AI. Hive е създала отделен инструмент, който определя дали изображенията като цяло са генерирани от AI. Въпреки че не е обучен специално за работа с CSAM, според Гуо, това не е необходимо. "Има някаква основна комбинация от пиксели в това изображение, която можем да идентифицираме" като генерирана от AI, казва той. "Това може да бъде обобщено." Този инструмент, казва Гуо, е това, което Центърът за киберпрестъпления ще използва за оценка на CSAM. Той добавя, че Hive оценява своите инструменти за откриване за всеки конкретен случай на използване, който клиентите имат предвид. Националният център за изчезнали и експлоатирани деца, който участва в усилията за спиране на разпространението на CSAM, не отговори на запитванията за коментар относно ефективността на такива модели за откриване навреме за публикацията. В съобщението си правителството оправдава възлагането на договора на Hive без конкурентен процес на офериране. Въпреки че части от това оправдание са редактирани, то основно се позовава на две точки, които също се намират в презентационна слайд палуба на Hive. Едната включва проучване от 2024 г. от Университета на Чикаго, което установи, че инструментът за откриване на AI на Hive изпреварва четири други детектори в идентифицирането на AI-генерирано изкуство. Другата е договорът му с Пентагона за идентифициране на deepfakes. Опитът ще продължи три месеца.