Безопасный интернет с Mozilla Firefox

Безопасный интернет с Mozilla Firefox

...

Cocoon – разработка компании Virtual World Computing, призванная обеспечить пользователям безопасное пользование интернетом. По сути Cocoon представляет собой дополнение для интернет-браузера Firefox, которое перенаправляет весь интернет трафик пользователя через зашифрованный SSL канал. Главное преимущество данной программы перед VPN и бесплатными прокси-серверами заключается в том, что его не нужно настраивать. Вы просто устанавливаете дополнение, вводите пароль и наслаждаетесь безопасным web-серфингом. Изначально за пользование Cocoon планировалось установить плату 55 долларов в год, но впоследствии руководство компании решило сделать сервис бесплатным.

В настоящее время любой может зайти на сайт getcocoon.com, зарегистрироваться и пользоваться безопасным web-серфингом через браузер Mozilla Firefox. В настоящее время разрабатывается версия для Internet Explorer. При запуске Cocoon автоматически перезапускает Firefox в режиме приватного просмотра, но при этом история посещений будет храниться на сервере Cocoon. Впрочем, пользователи могут отказаться от этой услуги. Кроме того, сервис имеет встроенную поддержку функции «mailslot» благодаря которой пользователи смогут быстро зарегистрироваться на сайтах, требующих подтверждения электронной почты для подтверждения регистрации. Кроме того, Cocoon блокирует загрузку исполняемых файлов и тем самым должен защитить компьютер от внедрения вредоносных программ, кончено пользователи смогут скачивать файлы, для этого нужно будет нажать на кнопку подтверждения на экране предупреждения о потенциальном риске. Панель управления Cocoon находится прямо под адресной панелью и не занимает много места на экране. Включение и выключение приложения осуществляется нажатием одной кнопки, что очень удобно, особенно для неопытных пользователей. Единственное что остается под вопросом: как долго компания Virtual World Computing сможет поддерживать приложение бесплатным? По словам исполнительного директора VWC Джефа Бернанта в настоящее время рассматривается возможность создания расширенной и корпоративной версий в будущем, но никто не гарантирует, что Cocoon останется бесплатным навсегда.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru