Исследователи из Университета Сент-Луиса продемонстрировали атаку на большие языковые модели (LLM), позволяющую манипулировать процессами рассуждения нейросетей. В отличие от других методов атак на искусственный интеллект, эта уязвимость не обнаруживается стандартными средствами и не требует изменения запросов.

Новости информационной безопасности
- « первая
- ‹ предыдущая
- …
- 112
- 113
- 114
- 115
- 116
- 117
- 118
- 119
- 120
- …
- следующая ›
- последняя »