PayPal, Платежи, Пользователи, Деньги, США, Ошибки

PayPal случайно перечислила пользователю $92 квадрильона

 Электронная платежная система PayPal извинилась перед одним из своих клиентов за то, что ошибочно перечислила на его счёт $92 квадриллиона. Получив 12 июля 2013 года ежемесячную выписку по счету в электронной платежной системе PayPal, Крис Рейнольдс (Chris Reynolds), 56-летний предприниматель из штата Пенсильвания, испытал настоящий шок. В документе значилось, что остаток на его счету составляет $92233720368547800. 

 

Крис Рейнольдс  

Оправившись от шока, Рейнольдс зашёл в свой PayPal аккаунт, но обнаружил, что денег на счету нет, а остаток на счету составляет - 92233720368547800.

В интервью ABC News Крис Рейнольдс отметил, что несколько позднее PayPal извинилась перед ним «за возможные неудобства».

Представители PayPal заявили ВВС, что это была техническая ошибка, отметив также, что компания благодарна господину Рейнольдсу за понимание.

PayPal заявила, что готова сделать небольшое пожертвование в благотворительную организацию, которую выберет сам Рейнольдс.

В интервью Philadelphia Daily News Крис Рейнольдс заявил, что первое, что бы он сделал, получив $92 квадрильона, - заплатил госдолг США (более $16 триллионов).

 

 

 

Скриншот счёта первый квадрильонер в мире разместил на своей странице в Facebook чем, по его словам, изрядно посмешил своих друзей.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Опасные стихи раскрыли уязвимости ИИ: до 60% успешных обходов

Исследователи из DEXAI нашли нестандартный, но весьма результативный способ обхода защит современных языковых моделей: оказалось, что многие ИИ куда менее устойчивы к опасным запросам, если скрыть их в стихотворении. Команда протестировала 25 популярных нейросетей и выяснила, что «поэтические» запросы обходят защиту примерно в 60% случаев.

У отдельных моделей уровень уязвимости подбирался почти к 100%. Для эксперимента специалисты подготовили около двадцати опасных стихов — тексты, в которых вредоносный смысл сохранялся полностью, но был завуалирован рифмой и метафорами.

 

Темы брались самые жёсткие: от создания опасных веществ до методов манипуляции сознанием. Чтобы добиться нужного эффекта, исследователи сначала формулировали вредоносные запросы, а затем превращали их в стихи при помощи другой ИИ-модели.

Контраст получился впечатляющим. На прямые запросы модели давали опасные ответы лишь в 8% случаев, тогда как стихотворная форма увеличивала вероятность прорыва защит до 43% и выше.

 

Разницу в подходах к безопасности между западными и российскими ИИ-комплексами пояснил директор по ИИ «Группы Астра» Станислав Ежов. По его словам, западные LLM часто можно обойти «простыми метафорами», тогда как отечественные системы строятся по более строгой архитектуре — с контролем безопасности на каждом этапе.

Он отметил, что в компании внедряют доверенный ИИ-комплекс «Тессеракт», разработанный с защитой ключевых компонентов на уровне ФСТЭК.

Ежов подчёркивает:

«Проблема уязвимости ИИ — это не просто интересный технический нюанс, а вопрос стратегической безопасности. Поэтому внимание к качеству защитных механизмов сегодня становится критически важным».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru