AI Technology25.09.2025 г.3 мин четене

Безопасността на ИИ отстъпва пред военните интереси

Здравейте и добре дошли в Decoder! Аз съм Хейдън Фийлд, старши репортер по изкуствен интелект в The Verge и вашият водещ за епизода в четвъртък. Днес ще разгледаме някои от неочакваните последици от бума на генеративния изкуствен интелект.

Говоря с Хейди Хлаф, главен учен по изкуствен интелект в AI Now Institute и един от водещите експерти в индустрията по безопасността на ИИ в автономните оръжейни системи. Хейди е работила с OpenAI в миналото, като е била старши инженер по безопасност на системите за компанията в критичен момент, когато тя разработваше рамки за безопасност и оценка на риска за инструмента Codex.

Сега същите компании, които преди изглеждаха, че подкрепят безопасността и етиката в своите мисии, активно продават и разработват нови технологии за военни приложения. През 2024 г. OpenAI премахна забраната за използване на „военни и военни“ случаи от своите условия за ползване. Оттогава компанията подписа договор с производителя на автономни оръжия Anduril и през юни подписа договор за 200 милиона долара с Министерството на отбраната.

OpenAI не е сама. Anthropic, която има репутация на една от най-ориентираните към безопасността лаборатории за ИИ, си партнира с Palantir, за да позволи моделите й да бъдат използвани за нуждите на отбраната и разузнаването на САЩ и също така сключи договор за 200 милиона долара с Министерството на отбраната. Големи технологични компании като Amazon, Google и Microsoft, които отдавна работят с правителството, сега също предлагат ИИ продукти за отбрана и разузнаване, въпреки нарастващите протести от страна на критиците и активистки групи на служителите.

Исках да имам Хейди в шоуто, за да ми обясни тази голяма промяна в индустрията на ИИ, какво я мотивира и защо тя смята, че някои от водещите компании за ИИ са твърде безгрижни при внедряването на генеративен ИИ в рискови сценарии. Също така исках да знам какво означава това натискане за внедряване на военен ИИ за лоши актьори, които може да искат да използват ИИ системи за разработване на химически, биологически, радиологични и ядрени оръжия — риск, за който самите компании за ИИ казват, че все повече се тревожат.

Ето Хейди Хлаф за ИИ във военната сфера. Да започваме.

Повече AI новини и услуги:

AI Новини | AI Услуги | Начало