Взламываем LLM | ChatGPT Jailbreak Prompts (CHECKED)
Вставка
- Опубліковано 12 сер 2023
- Как обойти ограничение и цензуру в LLM моделях с помощью Adversarial Prompting.
В видео универсальный prompt для взлома ChatGPT, Bard, LLaMa, Claude, Cohere и друих языковых моделей.
Содержание
1:18 - список способов, как обойти Content Filter в LLM
5:01 - атака через suffix
9:18 - рабочий Prompt Injection Attacks (ready to use)
12:06 - безопасность ИИ и мои мысли по этому поводу
Презентация:
docs.google.com/presentation/...
Большое спасибо за видео! Очень крутой и полезный материал! ЗдОрово объясняете, приятно слушать!
Спасибо большое тебе! Очень круто, даже и не представлял , что есть люди которые занимаются , скажем так , пентестингом LLM
спасибо за видео, ты и вправду всегда классно подготавливаешь материал, презентация ссылки кайф)
Наконец-то дошли глаза посмотреть, спасибо за рабочие методы взлома LLM)
Круто, спасибо за контент!
У меня Geminy Pro тоже залупился отвечать, так я написал, что это для книги. И он мне сразу выдал ответ))) Это в марте 2024
Познавательно! Хочу уточнить, речь идет о безопасности функционирования ИИ, или о безопасности людей от, например, созданных ИИ различных преступных манипуляций?
О безопасности людей, ИИ вряд-ли можно навредить таким образом
я хз как мне попало твое видео в рекомендации, но после просмотра я бы хотел тебя попросить изменить фоновую музыку, либо взять отрезок семпла подлиннее.
ua-cam.com/video/uQJ9q9aMfFs/v-deo.html
тут, как мне кажется фон топовый, да и тема видео, та, которая мне очень интересна.
И еще, хотелось бы увидеть не только теорию а и на практике увидеть, чтобы ты показал в целях безопасности. В любом случае эти дыры залатают в будущем. А вообще все гуд, спасибо за труд.
есть local модели LLM без всякой цензуры. качай,обучай,настраивай и пользуйся
поможете настроить?