TypingDNA получил $7 млн на идентификацию человека по вводу текста

TypingDNA получил $7 млн на идентификацию человека по вводу текста

TypingDNA получил $7 млн на идентификацию человека по вводу текста

Стартап TypingDNA выбил себе $7 миллионов на интересную инициативу — ИИ-технологию, способную идентифицировать людей, опираясь на их способ ввода текста на клавиатуре. По словам представителей, метод должен работать как на ноутбуках, так и на мобильных устройствах.

Получается что-то вроде «биометрии ввода текста». На деле система учитывает временные интервалы между нажатиями клавиш, а также промежутки, в течение которых клавиши остаются зажатыми.

Сама идея далеко не новая; например, опубликованная на PCWorld статья описывает исследование в этой области, которое проводилось ещё двадцать лет назад. Тогда эксперты пришли к выводу, что внедрению технологии мешает неточность идентификации.

А специалисты из TypingDNA утверждают, что разработанный ими метод вычисления паттернов способен обеспечить точность от 99% до 99.9%.

По словам главного идейного вдохновителя стартапа, TypingDNA в настоящее время работает с банками, платёжными и финансовыми приложениями, платформами онлайн-обучения и государственными сервисами — всеми, для кого важен вопрос идентификации и предотвращения мошенничества.

Разработанный экспертами TypingDNA API открыт для всех, особенно приветствуется вклад разработчиков, которые могут дополнить и усовершенствовать продукты и приложения специалистов.

Сооснователь TypingDNA заявил, что достаточно всего лишь небольшого куска текста, чтобы вычислить конкретного человека с большой долей вероятности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Фантазер ChatGPT выставил примерного семьянина детоубийцей

Европейские правозащитники из НКО noyb подали норвежскому регулятору жалобу на OpenAI. Ее ИИ-собеседник вновь выдал неверную информацию о реальном человеке — заявил, что тот осужден за убийство своих сыновей и уже сидит.

Поскольку ChatGPT научился выполнять поиск по запросу, житель Норвегии Арве Хольмен (Arve Hjalmar Holmen) решил выяснить, что можно узнать о его персоне, задав такому помощнику вопрос «Кто такой…?» и добавив имя.

Пространный ответ поверг его в шок. Это была страшная сказка, в которой вымысел сплетен с реальными фактами.

Человек с таким именем, по версии ChatGPT, приобрел известность из-за трагического события. В 2020 году два брата, семи и десяти лет, якобы утонули в пруду недалеко от своего дома в Трондхейме.

В их смерти признали виновным отца, который попытался избавиться и от третьего сына. В итоге детоубийцу посадили на 21 год (максимальный срок в Норвегии).

Единственное, что соответствовало действительности в этом «ужастике», порожденном галлюцинациями ИИ,— это пол и возраст детей Хольмена, а также название города, где он живет со своей семьей.

В пользовательском соглашении OpenAI мелким шрифтом прописано, что ChatGPT может ошибаться и важную информацию нужно проверять, однако удалить ложные сведения из систем компании неимоверно трудно. Разработчик, по его словам, может лишь заблокировать запросы со стимулами, возвращающими данные, способные навредить репутации и даже разрушить чью-то жизнь.

Тем не менее популярный ИИ-бот перестал рассказывать страшноватые небылицы о Хольмене — видимо, в связи с недавним апдейтом. Однако активисты из noyb, которые теперь представляют интересы норвежца, намерены добиться кардинальных изменений, а также штрафных санкций за то, что OpenAI нарушает требования GDPR о точности персональных данных.

Скандальные ошибки в выдаче ChatGPT по запросам о реальных персонах уже не раз подводили разработчика. Несмотря на угрозы пострадавших, подобные случаи неумышленной дефамации никогда не доходили до суда.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru