Призив за глобални ограничения на ИИ събира подкрепа
В понеделник повече от 200 бивши държавни глави, дипломати, нобелови лауреати, лидери в областта на изкуствения интелект, учени и други се съгласиха по един въпрос: трябва да има международно споразумение за "червени линии", които ИИ никога не трябва да преминава — например, да не се позволява на ИИ да се представя за човек или да се самовъзпроизвежда. Те, заедно с повече от 70 организации, които се занимават с ИИ, подписаха инициативата Global Call for AI Red Lines, призовавайки правителствата да постигнат "международно политическо споразумение за 'червени линии' за ИИ до края на 2026 г." Сред подписалите се са британско-канадският компютърен учен Джефри Хинтън, съоснователят на OpenAI Войчех Заремба, CISO на Anthropic Джейсън Клинтън, изследователят на Google DeepMind Иън Гудфелоу и други. "Целта не е да реагираме след като се случи голям инцидент... а да предотвратим мащабни, потенциално необратими рискове преди да се случат," каза Шарбел-Рафаел Сежери, изпълнителен директор на Френския център за безопасност на ИИ (CeSIA), по време на брифинг в понеделник. Той добави, "Ако нациите все още не могат да се съгласят какво искат да правят с ИИ, те трябва поне да се съгласят какво ИИ никога не трябва да прави." Обявлението идва преди 80-тата Генерална асамблея на ООН в Ню Йорк, а инициативата беше водена от CeSIA, Future Society и Центъра за човеко-съвместим изкуствен интелект на UC Berkeley. Нобеловият лауреат за мир Мария Реса спомена инициативата по време на своите откриващи забележки на асамблеята, призовавайки за усилия за "прекратяване на безнаказаността на големите технологични компании чрез глобална отчетност." Някои регионални червени линии за ИИ вече съществуват. Например, Актът за ИИ на Европейския съюз забранява някои използвания на ИИ, считани за "неприемливи" в рамките на ЕС. Съществува и споразумение между САЩ и Китай, че ядрените оръжия трябва да останат под човешки, а не ИИ контрол. Но все още няма глобален консенсус. В дългосрочен план е необходимо повече от "доброволни обещания," каза Ники Илиадис, директор за глобално управление на ИИ в The Future Society, на репортерите в понеделник. Отговорното мащабиране на политиките, направени в рамките на ИИ компаниите, "не е достатъчно за реално прилагане." В крайна сметка е необходима независима глобална институция "със зъби," която да определя, наблюдава и прилага червените линии, каза тя. "Те могат да се съобразят, като не изграждат AGI, докато не знаят как да го направят безопасно," каза Стюарт Ръсел, професор по компютърни науки в UC Berkeley и водещ изследовател на ИИ, по време на брифинга. "Точно както разработчиците на ядрена енергия не изграждаха ядрени централи, докато нямаха идея как да ги спрат от експлозия, индустрията на ИИ трябва да избере различен технологичен път, такъв, който вгражда безопасността от самото начало, и ние трябва да знаем, че го правят." Червените линии не възпрепятстват икономическото развитие или иновациите, както някои критици на регулирането на ИИ твърдят, каза Ръсел. "Можете да имате ИИ за икономическо развитие, без да имате AGI, който не знаем как да контролираме," каза той. "Това предполагаемо противопоставяне, ако искате медицинска диагноза, тогава трябва да приемете AGI, който може да унищожи света — просто мисля, че е безсмислица."