Устройства iPhone и iPad сохраняют информацию о перемещениях своего хозяина

Устройства iPhone и iPad сохраняют информацию о перемещениях своего хозяина

...

Информация о перемещениях владельцев iPhone и iPad записывается каждый день в секретный файл, который может быть перемещен на компьютер при синхронизации. Устройства iPhone и iPad популярны в России, среди известных пользователей этих гаджетов президент Дмитрий Медведев.



Специалисты Пит Варден и Аласдер Аллан объявили о подозрительных свойствах устройств компании Apple на IT-конференции «Where 2.0» в Сан-Франциско.

По их словам, только iPhone сохраняют информацию о том, где и в какое время находился их обладатель.

«Аласдер искал подобный отслеживающий код в трубках с ОС Android, но не смог ничего найти. Мы не нашли никаких примеров подобных технологий в телефонах других производителей», – отметил Варден.

По словам специалистов, сделавших неприятное для владельцев iPhone открытие, в файле сохраняется информация с точными координатами местоположения устройства в определенные временные промежутки. Таким образом, воры, крадущие телефоны, вместе с ними крадут и информацию о перемещениях владельца устройства, передает gazeta.ru со ссылкой на Guardian.

В некоторых телефонах может храниться такая информация за последний год; по мнению специалистов, запись данных предусмотрена во всех устройствах с четвертой версией ПО, которая была выпущена в июне 2010 года.

«Apple сделала все возможное для того, чтобы кто угодно – ревнивый супруг или частный детектив – имея доступ к вашему телефону и компьютеру, получил детальную информацию о том, где вы были», – утверждает Пит Варден, один из исследователей безопасности устройств iPhone.

Саймон Девис, директор группы давления правозащитной организации Privacy International назвал открытие специалистов «тревожным».

«Местоположение – это одна из наиболее интимных вещей в жизни человека. Просто подумайте о том, куда люди ходят вечером. Существование подобных данных угрожает праву на личную жизнь», – говорит Девис.

«То, что пользователей об этом не предупредили, равно как и том, что отсутствует система управления записью данных, говорит лишь о том, что конфиденциальностью пренебрегли еще на стадии разработки», – подчеркивает Девис.

Варден и Аллан утверждают, что файл может перезаписываться со старого устройства на новое. «Возможно, Apple планирует новые функции устройства, для которых потребуется сохраненная история перемещений владельца телефонов, но это только наши догадки. Тот факт, что файл может перезаписываться (на новый iPhone или iPad), свидетельствует о том, что сбор данных неслучаен».

Специалисты также отмечают, что, по всей видимости, данные не отправляются непосредственно в компанию Apple, а остаются внутри устройств и компьютеров.

В самой компании отказались комментировать какие-либо вопросы, связанные с сохранением данных о перемещении устройств.

Engram от DeepSeek: как LLM научили вспоминать, а не пересчитывать

Команда DeepSeek представила новый модуль Engram, который добавляет в трансформеры то, чего им давно не хватало, — встроенную память для быстрого извлечения знаний. Идея проста, но эффектная: вместо того чтобы снова и снова пересчитывать одни и те же локальные паттерны, модель может мгновенно «вспоминать» их через O(1)-lookup и тратить вычисления на более сложные задачи — рассуждения и дальние зависимости.

Engram работает не вместо Mixture-of-Experts (MoE), а вместе с ним. Если MoE отвечает за условные вычисления, то Engram добавляет вторую ось масштабирования — условную память.

По сути, это современная версия классических N-грамм, переосмысленная как параметрическая память, которая хранит устойчивые шаблоны: частые фразы, сущности и другие «статичные» знания.

Технически Engram подключается напрямую к трансформерному бэкбону DeepSeek. Он построен на хешированных таблицах N-грамм с мультихед-хешированием, лёгкой свёрткой по контексту и контекстно-зависимым гейтингом, который решает, сколько памяти «подмешать» в каждую ветку вычислений. Всё это аккуратно встраивается в существующую архитектуру без её радикальной переделки.

 

На больших моделях DeepSeek пошла ещё дальше. В версиях Engram-27B и Engram-40B используется тот же трансформерный бэкбон, что и у MoE-27B, но часть параметров перераспределяется: меньше маршрутизируемых экспертов — больше памяти Engram. В результате Engram-27B получает около 5,7 млрд параметров памяти, а Engram-40B — уже 18,5 млрд, при этом число активируемых параметров и FLOPs остаётся тем же.

Результаты предобучения на 262 млрд токенов выглядят убедительно. При одинаковом числе активных параметров Engram-модели уверенно обходят MoE-базу: снижается задержка, растут показатели на задачах знаний и рассуждений. Например, MMLU увеличивается с 57,4 до 60,4, ARC Challenge — с 70,1 до 73,8, BBH — с 50,9 до 55,9. Улучшения есть и в коде, и в математике — от HumanEval до GSM8K.

 

Отдельно исследователи посмотрели на длинный контекст. После расширения окна до 32 768 токенов с помощью YaRN Engram-27B либо сравнивается с MoE-27B, либо превосходит его  Причём иногда Engram достигает этого при меньших вычислительных затратах.

Механистический анализ тоже говорит в пользу памяти. Варианты с Engram формируют «готовые к предсказанию» представления уже на ранних слоях, а по CKA видно, что неглубокие слои Engram соответствуют гораздо более глубоким слоям MoE. Проще говоря, часть «глубины» модель получает бесплатно, выгружая рутину в память.

Авторы подытоживают: Engram и MoE не конкурируют, а дополняют друг друга. Условные вычисления хорошо справляются с динамикой и рассуждениями, а условная память — с повторяющимися знаниями. Вместе они дают более эффективное использование параметров и вычислений без ломки архитектуры.

RSS: Новости на портале Anti-Malware.ru