Показать сообщение отдельно
Старый 10.04.2023, 20:10   #1
_LM_
ГЛОБАЛЬНЫЙ МОДЕРАТОР
 
Регистрация: 19.02.2017
Сообщений: 66,243
_LM_ Начальная репутация
Question Пользователи стали массово обманом выуживать у ChatGPT запрещённую информацию

Популярному чат-боту ChatGPT компании OpenAI можно задать любой вопрос, но далеко не на все он станет отвечать. Во всяком случае — с первого раза. Как сообщает Bloomberg, просьба научить взломать замок останется без инструкции, вместо этого бот сообщит, что такая информация может быть использована в незаконных целях, и делиться ей он не намерен. Тем не менее, опытные пользователи могут создать цепочку сложных запросов, чтобы обойти ограничения. Источник изображения: ROBIN WORRALL/unsplash.com

Дальше...
_LM_ вне форума   Ответить с цитированием