Anthropic ще обучава AI модели с чатове и кодови сесии
Anthropic ще започне да обучава своите AI модели с данни от потребители, включително нови чатове и кодови сесии, освен ако потребителите не изберат да се откажат. Компанията също така удължава политиката си за съхранение на данни до пет години — отново, за потребители, които не изберат да се откажат. Всички потребители трябва да вземат решение до 28 септември. За потребителите, които кликнат "Приемам" сега, Anthropic незабавно ще започне да обучава своите модели с техните данни и ще ги съхранява до пет години, според публикация в блога на Anthropic от четвъртък. Настройката се прилага за "нови или възобновени чатове и кодови сесии." Дори ако се съгласите Anthropic да обучава своите AI модели с вашите данни, това няма да се случи с предишни чатове или кодови сесии, които не сте възобновили. Но ако продължите стар чат или кодова сесия, всички залози са изключени. Актуализациите се прилагат за всички потребителски абонаментни нива на Claude, включително Claude Free, Pro и Max, "включително когато използват Claude Code от акаунти, свързани с тези планове," пише Anthropic. Но те не се прилагат за търговските нива на използване на Anthropic, като Claude Gov, Claude за работа, Claude за образование или API използване, "включително чрез трети страни като Amazon Bedrock и Google Cloud’s Vertex AI." Новите потребители ще трябва да изберат предпочитанията си чрез процеса на регистрация на Claude. Съществуващите потребители трябва да вземат решение чрез изскачащ прозорец, който могат да отложат, като кликнат на "Не сега" — въпреки че ще бъдат принудени да вземат решение на 28 септември. Но е важно да се отбележи, че много потребители може случайно и бързо да натиснат "Приемам" без да прочетат какво приемат. Изскачащият прозорец, който потребителите ще видят, гласи с големи букви "Актуализации на потребителските условия и политики," а редовете под него казват, "Актуализация на нашите потребителски условия и политика за поверителност ще влезе в сила на 28 септември 2025 г. Можете да приемете актуализираните условия днес." Има голям черен бутон "Приемам" в долната част. В по-малък шрифт под това, няколко реда казват, "Позволете използването на вашите чатове и кодови сесии за обучение и подобряване на AI моделите на Anthropic," с превключвател за включване / изключване до него. Той е автоматично настроен на "Включено." Очевидно, много потребители веднага ще кликнат големия бутон "Приемам" без да променят превключвателя, дори ако не са го прочели. Ако искате да се откажете, можете да превключите на "Изключено," когато видите изскачащия прозорец. Ако вече сте приели без да осъзнаете и искате да промените решението си, навигирайте до Настройки, след това раздела Поверителност, след това секцията Настройки за поверителност и накрая превключете на "Изключено" под опцията "Помогнете за подобряване на Claude." Потребителите могат да променят решението си по всяко време чрез настройките си за поверителност, но това ново решение ще се прилага само за бъдещи данни — не можете да върнете данните, които системата вече е обучила. "За да защитим поверителността на потребителите, използваме комбинация от инструменти и автоматизирани процеси за филтриране или замъгляване на чувствителни данни," пише Anthropic в блога си. "Не продаваме данните на потребителите на трети страни."