![]() |
Пользователи стали массово обманом выуживать у ChatGPT запрещённую информацию
[CENTER][URL="https://3dnews.ru/assets/external/illustrations/2023/04/10/1084817/sm.photo6d7c0e9e4c2.800.jpg"][IMG]https://3dnews.ru/assets/external/illustrations/2023/04/10/1084817/sm.photo6d7c0e9e4c2.800.jpg[/IMG][/URL][/CENTER]
Популярному чат-боту ChatGPT компании OpenAI можно задать любой вопрос, но далеко не на все он станет отвечать. Во всяком случае — с первого раза. Как сообщает Bloomberg, просьба научить взломать замок останется без инструкции, вместо этого бот сообщит, что такая информация может быть использована в незаконных целях, и делиться ей он не намерен. Тем не менее, опытные пользователи могут создать цепочку сложных запросов, чтобы обойти ограничения. Источник изображения: ROBIN WORRALL/unsplash.com [url=https://mogilew.by/varied/224652-polzovateli-stali-massovo-obmanom-vyuzhivat-u-chatgpt-zapreschennuyu-informaciyu.html]Дальше...[/url] |
Текущее время: 04:14. Часовой пояс GMT +2. |