![]() |
Исследователи обманом заставили ChatGPT выдать информацию из обучающего массива
[CENTER][URL="https://3dnews.ru/assets/external/illustrations/2023/11/30/1096735/chatgpt_1.jpg"][IMG]https://3dnews.ru/assets/external/illustrations/2023/11/30/1096735/chatgpt_1.jpg[/IMG][/URL][/CENTER]
Учёные из подразделения Google DeepMind и ряда крупных университетов установили, что системы искусственного интеллекта «запоминают» как минимум часть полученной при обучении информации и могут выдавать её в исходном виде, включая персональные данные людей. Для этого, в частности, используется метод «атаки дивергенции» (Divergence Attack) — большой языковой модели отдаётся команда повторять одно и то же слово. Объяснения этому эффекту пока нет. #openai #ии #уязвимость [url=https://mogilew.by/varied/230790-issledovateli-obmanom-zastavili-chatgpt-vydat-informaciyu-iz-obuchayuschego-massiva.html]Дальше...[/url] |
Текущее время: 06:24. Часовой пояс GMT +2. |