Ученые решили проблему запоминания паролей

Ученые решили проблему запоминания паролей

Новая технология, которая, по словам создателей, может решить проблему запоминания паролей, во вторник была представлена в журнале PeerJ. Основана она на способности человека узнавать знакомые лица. Многочисленные исследования по психологии обнаруживали принципиальное отличие в восприятии знакомых и незнакомых лиц. Человек может без труда узнать знакомый образ среди многих тысяч чужих лиц.

Он опознает его даже на плохом или нечетком изображении. Незнакомое же лицо на изображении, наоборот, не запоминает: различные фото одного и того же неизвестного лица зачастую воспринимаются как принадлежащие разным людям. Технология FaceLock, предложенная учеными, использует данный эффект для создания нового типа аутентификации, сообщает Lenta.ru.

Способность человека узнавать знакомые лица среди различных фотографий планируется применять, чтобы создать индивидуальный «замок». Таким образом, доступ будет обеспечен тому, кто может узнать определенные лица среди изображений, и отклонен для того, кто не сможет.

Чтобы зарегистрироваться в системе, пользователь определяет набор лиц, хорошо знакомых ему, но неизвестных для других людей. Например, любимый джазовый музыкант, игрок в покер или урбанист. Комбинируя изображения, ученые могут создать набор лиц, которые знает только этот человек. Узнавание этих лиц и есть ключ к Facelock.

«Замок» состоит из определенного количества набора лиц, построенных так, что каждый из наборов содержит лишь одно лицо, знакомое пользователю, тогда как другие изображения неизвестны. Аутентификация тогда – это просто выбор знакомого лица в каждом наборе.

Такой подход имеет ряд преимуществ. Человеку не надо что-либо запоминать. К тому же знакомые лица почти невозможно забыть. Таким образом, подобная система является весьма надежной.

В представленном исследовании приводится эксперимент, когда люди могли вспомнить свой «пароль» из лиц даже после года его неприменения. В то время как обычные пароли, когда ими постоянно не пользуешься, забываются через несколько дней. К тому же такой Facelock очень трудно взломать. Атака на «пароль» из лиц может быть отражена просто использованием других фотографий тех же персон. Для юзера, который знает определенного человека, не доставляет труда определить его на другой фотографии, в то время как для взломщика узнать незнакомого на другой фотографии крайне трудно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru