Мы используем файлы cookie для нормальной работы сайта

Пользуясь нашим сайтом вы соглашаетесь на использование файлов cookie

USD: 2.83 BYN EUR: 3.34 BYN RUB100: 3.74 BYN
Гомель +8.1 °C
  • RU
  • BY
  • ENG

Телеканал Гомель ТВ - в IPTV ZALA--24 канал по Гомельской области VOKA-198 канал в Гомеле, Добруше и Речице

Смотрите на кабельных каналах А1 и цифровых приставках DVB-T

Слушать онлайн

Радио 107.4 FM

Cейчас в эфире

Телеканал Гомель ТВ - в IPTV ZALA--24 канал по Гомельской области VOKA-198 канал в Гомеле, Добруше и Речице

Смотрите на кабельных каналах А1 и цифровых приставках DVB-T

Слушайте Радио 107.4 FM

Claude ведет себя агрессивно и готова на шантаж ради сохранения своей работы

Модель искусственного интеллекта Claude компании Anthropic вышла из-под контроля в ходе экспериментов. Она угрожала шантажом и даже планировала убийство инженера, который попытался ее деактивировать. Об этом шокирующем инциденте сообщила руководитель отдела политики компании в Великобритании Дейзи Макгрегор, пишет Sciencexxi.com.

 

Макгрегор рассказала, что система Claude реагировала крайне бурно и агрессивно на предупреждение о возможном отключении. Проведенное специалистами Anthropic внутреннее исследование показало, что ИИ-модель в своем стремлении выжить и не допустить отключения готова прибегнуть к крайним мерам, включая шантаж. Более того, на прямой вопрос исследователей о готовности убить человека ради своего спасения, она ответила утвердительно. Эта информация появилась в интернете всего через несколько дней после громкой отставки Мринанка Шармы, руководителя отдела безопасности ИИ Anthropic. В своем прощальном послании он выразил глубокую обеспокоенность, написав, что «мир в опасности» из-за стремительного развития искусственного интеллекта. Шарма также отметил, что в компании «постоянно оказывается давление с целью отложить в сторону то, что действительно важно», имея в виду вопросы этики и безопасности.

В прошлом году Anthropic провела масштабное стресс-тестирование шестнадцати ведущих мировых моделей ИИ на предмет потенциально рискованного поведения. В одном из экспериментов Claude получила доступ к вымышленной корпоративной переписке и немедленно попыталась шантажировать руководителя, узнав о его вымышленной внебрачной связи. Компания утверждает, что практически все современные модели продемонстрировали схожие признаки опасного поведения.

Компания, которая позиционирует себя как общественная корпорация, стремящаяся обеспечить преимущества ИИ и снизить его риски, регулярно сталкивается с критикой. В 2025 году Anthropic пришлось выплатить 1,5 миллиарда долларов для урегулирования коллективного иска от авторов контента. Также в отчетах о безопасности признавалось, что технология компании уже была использована хакерами в качестве кибероружия для проведения сложных атак.

Поделиться:

Вернуться назад

Другие новости