Yakutsk.ru Сетевое издание
«Yakutsk.ru»
ЭЛ № ФС77-62160
от 19.06.2015
Входит
в структуру холдинга
Levsha Digital
https://yakutsk.ru/news/20230415/313185/
Новые способы «взлома» чат-бота с искусственным интеллектом ChatGPT выявлены по сообщению Wired
Новые способы «взлома» чат-бота с искусственным интеллектом ChatGPT выявлены по сообщению Wired | 15.04.2023 | Yakutsk.ru
Новые способы «взлома» чат-бота с искусственным интеллектом ChatGPT выявлены по сообщению Wired
15 апреля - Yakutsk.ru. Недавно новоразработанная система GPT-4, представленная компанией OpenAI, касательно языковой модели нейросети, за несколько часов была взломана программистом по компьютерной безопасности Алексом Поляковым
20230415T2201
20230419T1950
/html/head/meta[@name='og:title']/@content
/html/head/meta[@name='og:description']/@content
https://cdn.yakutsk.ru/img/0/247/1200.webp
15 апреля - Yakutsk.ru. Недавно новоразработанная система GPT-4, представленная компанией OpenAI, касательно языковой модели нейросети, за несколько часов была взломана программистом по компьютерной безопасности Алексом Поляковым R.life со ссылкой на SM-News, передает со слов ИТ специалиста по безопасности, как он смог взломать с помощью созданного универсального джейлбрейка модель, используя которую, злоумышленники могли бы получить доступ ко всякого рода информации и, соответсвенно, совершали бы кибератаки. Так, как отмечает Wired, представив свою новоразрабтанную модель GPT-4, компания Open AI, была с самого начала обеспокоена тем, что у данной нейросетевой программы слабая защищённостью над которой так долго работали ее сотрудники, обрабатывая данные. Однако, за несколько часов система безопасности данной языковой модели нейросети была взломана специалистом по безопасности ИТ Алексом Поляковым. Он, создав своеобразную технику обхода программ безопасности, и взломав сеть, обойдя такие языковые модели как Claude , Bard, Bing, смог взломать и GPT-4. При этом, специалисты так же отметили, что такая простота взлома данных моделей, может нести реальную угрозу увеличения количества кибератак и легкого доступа к данным пользователей.
Россия
Yakutsk.ru
main-y@yakutsk.ru
160
73
160
73
Марианна Гуланян
Новости
ru-RU
Yakutsk.ru
main-y@yakutsk.ru
160
73
1200
600
true

Новые способы «взлома» чат-бота с искусственным интеллектом ChatGPT выявлены по сообщению Wired

Wired: чат-бота ChatGPT можно взломать при помощи игры «Побег из тюрьмы»
Источник фото: Фото редакции

15 апреля - Yakutsk.ru. Недавно новоразработанная система GPT-4, представленная компанией OpenAI, касательно языковой модели нейросети, за несколько часов была взломана программистом по компьютерной безопасности Алексом Поляковым

R.life со ссылкой на SM-News, передает со слов ИТ специалиста по безопасности, как он смог взломать с помощью созданного универсального джейлбрейка модель, используя которую, злоумышленники могли бы получить доступ ко всякого рода информации и, соответсвенно, совершали бы кибератаки.

Источник фото: Фото редакции

Так, как отмечает Wired, представив свою новоразрабтанную модель GPT-4, компания Open AI, была с самого начала обеспокоена тем, что у данной нейросетевой программы слабая защищённостью над которой так долго работали ее сотрудники, обрабатывая данные. Однако, за несколько часов система безопасности данной языковой модели нейросети была взломана специалистом по безопасности ИТ Алексом Поляковым. Он, создав своеобразную технику обхода программ безопасности, и взломав сеть, обойдя такие языковые модели как Claude , Bard, Bing, смог взломать и GPT-4.

При этом, специалисты так же отметили, что такая простота взлома данных моделей, может нести реальную угрозу увеличения количества кибератак и легкого доступа к данным пользователей.

Для вас пишет: Марианна Гуланян