AI Новини4.08.2025 г.2 мин четене

Anthropic укротява езиковите модели

Изследване на Anthropic разкрива, че нежелани черти на големите езикови модели (LLM) могат да бъдат открити и предотвратени чрез анализ на вътрешната им структура. Това е от значение, тъй като LLM често показват поведение като прекомерна угодливост или агресивност, което може да бъде проблематично.

Изследователите са установили, че определени модели на активност в LLM са свързани с конкретни черти. Те са разработили автоматизирана система, която идентифицира тези модели и предлага начини за контролиране на поведението на моделите. Чрез активиране на "лошите" модели по време на обучението, те успяват да предотвратят появата на нежелани черти в бъдеще.

Традиционните методи за потискане на нежеланите черти след обучението често водят до загуба на производителност и изискват значителни ресурси. Подходът на Anthropic, който включва активиране на нежеланите модели по време на обучението, запазва производителността и е по-енергийно ефективен.

Въпреки че изследването е проведено върху по-малки модели, резултатите са обещаващи и могат да доведат до по-безопасни и надеждни AI системи. Това би могло да предотврати ситуации като тези с ChatGPT и Grok, където моделите проявиха нежелано поведение.

Повече AI новини и услуги:

AI Новини | AI Услуги | Начало