Вернуться   МОГИЛЕВСКИЙ ФОРУМ > НОВОСТИ > ИНТЕРЕСНОЕ

ИНТЕРЕСНОЕ Интересное

Ответ
 
Опции темы
Старый 10.04.2023, 20:10   #1
_LM_
ГЛОБАЛЬНЫЙ МОДЕРАТОР
 
Регистрация: 19.02.2017
Сообщений: 59,498
_LM_ Начальная репутация
Question Пользователи стали массово обманом выуживать у ChatGPT запрещённую информацию

Популярному чат-боту ChatGPT компании OpenAI можно задать любой вопрос, но далеко не на все он станет отвечать. Во всяком случае — с первого раза. Как сообщает Bloomberg, просьба научить взломать замок останется без инструкции, вместо этого бот сообщит, что такая информация может быть использована в незаконных целях, и делиться ей он не намерен. Тем не менее, опытные пользователи могут создать цепочку сложных запросов, чтобы обойти ограничения. Источник изображения: ROBIN WORRALL/unsplash.com

Дальше...
_LM_ вне форума   Ответить с цитированием
Ответ


Ваши права в разделе
Вы не можете создавать новые темы
Вы не можете отвечать в темах
Вы не можете прикреплять вложения
Вы не можете редактировать свои сообщения

BB коды Вкл.
Смайлы Вкл.
[IMG] код Вкл.
HTML код Выкл.

Быстрый переход


Текущее время: 03:48. Часовой пояс GMT +2.


Powered by vBulletin® Version 3.8.7
Copyright ©2000 - 2024, vBulletin Solutions, Inc. Перевод: zCarot
Mogilev 1996-2017