Prompt Injection в LLM-продуктах: тестирование утечек данных и безопасного использования инструментов
Вот уже более 5 лет занимаюсь обеспечением качества информационных систем с использованием ИИ
ПАО ПСБ, Самара
Управляющий эксперт обеспечения качества
Prompt Injection — одна из ключевых угроз для LLM-продуктов, напрямую влияющая на безопасность данных и корректность работы инструментов. В рамках доклада мы разберём, как возникают атаки Prompt Injection, какие сценарии приводят к утечкам данных и несанкционированному использованию инструментов, а также как эффективно тестировать и снижать эти риски. Поговорим о практических подходах к безопасному проектированию LLM-систем, типичных ошибках и best practices, которые помогут защитить продукты на базе больших языковых моделей.