Социальную сеть Facebook атакуют новые вредоносные программы

Социальную сеть Facebook атакуют новые вредоносные программы

В последние дни G Data Software обнаружила новую атаку вредоносных программ в социальной сети Facebook. Многие пользователи получили сообщение через функцию Facebook чат следующего содержания: “Это твой бывший молодой человек/девушка?”, “Боже мой, посмотри какой милый”. 



Сокращенный линк мог быть разным, но результат остается прежним: после перехода по ссылке на компьютере начинается загрузка файла, который маскируется под .jpg формат. В случае за-грузки у пользователя не отображается расширение, а появляется иконка обычной картинки в формате jpg.

Такой файл с несоответствием иконки и расширения заставляется задуматься о его происхождении, но, к сожалению, далеко не все пользователи замечают это несовпадение. Что сделает среднестати-стический пользователь в такой ситуации?

Очевидно, что после загрузки “картинки” пользователь хочет увидеть забавный или шокирующий сни-мок, обещанный в чате. И тут наступает момент заражения: при нажатии на картинку начинается
загрузка вредоносных программ на компьютер пользователя, который, поплатившись за свое любо-пытство, становится жертвой. Самое опасное, что файл начинает распространяться по всем друзьям пользователя в Facebook. Так стартует полный цикл заражения.

Загруженный файл уже с зловредами сохраняется и исполняется в папке TEMP ОС Windows%%. Но пользователь пока не замечает вредоносной деятельности. С целью обмануть второй раз, вирус даже отображает поддельное уведомление, объясняющее почему юзер не может открыть картинку.

“Пока жертва думает, что файл поврежден и, скорей всего, отправляет его прямиком в корзину, на ее компьютер в фоновом режиме устанавливается вредоносная программа, - рассказывает Ральф Бенц-мюллер, руководитель лаборатории безопасности G Data Labs. - К сожалению, мы не смогли опреде-лить ее происхождение, так как область хостинга была уже подчищена хакерами. Также для своих уловок они использовали абсолютно легальный хостинг для временного размещения файлов. Но мы смогли определить файл-загрузчик: троянская программа Trojan.Generic.KD.315917”.

Загружаемые зловреды могут быть любого вида и происхождения: от банковский торянов до клавиа-турных шпионов, бэкдоров и прочее. Даже не смотря на то, что в способе заражения компьютера через троян-загрузчик нет ничего нового, из-за широкого охвата социальной сети такая атака может быть вполне существенной.

Чтобы защитить себя нужно:

  • Не переходить по ссылкам от неизвестных пользователей. Даже если вы получаете сообщение от друга, содержащее подозрительный контент, лучше лишний раз удостоверьтесь, отправлял ли он это сообщение.
  • Проверять сокращенные ссылки, чтобы узнать исходный ресурс. Если это ссылка, укороченная с помощью сервера bit.ly, то вам необходимо добавить + в конце ссылки, скопировать в строку браузера (например bit.ly/shortcode можно заранее расшифровать как bit.ly/shortcode+). Также вы можете использовать LongURL, который автоматически восстанавливает ссылки из любых сервисов. 
  • Подключить функцию отображения расширения файлов на вашей операционной системе.
  • Своевременно устанавливаете все обновления на компьютере.

ИИ сказал — ты согласился: учёные описали феномен когнитивной капитуляции

Исследователи из Университета Пенсильвании предложили новое объяснение тому, как люди взаимодействуют с ИИ. По их мнению, всё чаще пользователи не просто пользуются нейросетями, а буквально «сдаются» им. Этот феномен специалисты назвали «когнитивной капитуляцией» (cognitive surrender).

Если раньше люди использовали технологии вроде калькуляторов или GPS для отдельных задач — «разгружали» мозг, но сохраняли контроль, — то с ИИ ситуация меняется.

Всё чаще пользователи просто принимают ответы модели за истину, не проверяя и не анализируя их. Причём, как отмечают исследователи, это особенно заметно, если ответ звучит уверенно, гладко и без лишних сложностей. В таком случае у человека просто не включается внутренний «режим сомнения».

Чтобы проверить это, учёные провели серию экспериментов с участием более 1300 человек. Им предложили задачи на когнитивное мышление с подвохом, который требует не интуиции, а вдумчивого анализа.

Часть участников могла пользоваться ИИ-помощником, но с нюансом: модель специально давала неправильные ответы примерно в половине случаев. Результат оказался показательным.

 

Когда ИИ отвечал правильно, пользователи соглашались с ним в 93% случаев. Но даже когда он ошибался, люди всё равно принимали его ответ в 80% случаев. То есть большинство просто не перепроверяло результат, даже если он был неверным.

В среднем участники соглашались с ошибочным ИИ в 73% случаев и оспаривали его лишь в 19,7% случаев.

Более того, у тех, кто пользовался ИИ, уровень уверенности в своих ответах оказался выше — даже несмотря на то, что половина этих ответов была неправильной.

 

Интересно, что поведение менялось в зависимости от условий. Например, если участникам давали небольшие денежные стимулы за правильные ответы и мгновенную обратную связь, они чаще перепроверяли ИИ и исправляли ошибки. А вот дефицит времени, наоборот, усиливал зависимость от модели: под давлением дедлайна люди ещё охотнее доверяли ИИ.

Не все оказались одинаково уязвимы. Люди с более высоким уровнем так называемого флюидного интеллекта (fluid IQ) реже полагались на ИИ и чаще замечали его ошибки. А вот те, кто изначально воспринимал ИИ как авторитетный источник, чаще попадались на неверные ответы.

При этом сами исследователи подчёркивают: «когнитивная капитуляция» — не обязательно зло сама по себе. Если ИИ действительно работает лучше человека, логично ему доверять, особенно в задачах вроде анализа данных или оценки рисков.

Но есть важный нюанс: качество мышления в таком случае напрямую зависит от качества самой модели.

RSS: Новости на портале Anti-Malware.ru