Недавний отчет от компании по безопасности предприятия Като Нейтс вызвал опасения относительно рисков для безопасности, связанных с генеративными чатботами ИИ. Выводы отчета о угрозах за 2025 год показывают, что даже люди с минимальными техническими знаниями могут воспользоваться моделями ИИ для создания вредоносного программного обеспечения, нацеленного на кражу чувствительной информации, хранящейся в веб-браузерах.
🚀 Хочешь улететь на Луну вместе с нами? Подписывайся на CryptoMoon! 💸 Новости крипты, аналитика и прогнозы, которые дадут твоему кошельку ракетный ускоритель! 📈 Нажмите здесь: 👇
CryptoMoon Telegram
В докладе поясняется, что исследователь, у которого, по словам Като, ранее не было опыта программирования вредоносного ПО, сумел использовать такие инструменты искусственного интеллекта, как DeepSeek R1 и V3, Microsoft Copilot и GPT-4o от OpenAI для создания ‘полностью функциональных’ Chrome infostealer (информаторов). Эти опасные программы предназначены для извлечения сохраненных имен пользователей, паролей и других приватных данных из Chrome.
Исследователь разработал комплексную вымышленную среду, в которой каждый инструмент ИИ имел определенные роли — с задачами и препятствиями для преодоления. Это было реализовано через нарративную инженерию, что позволило исследователю обойти меры безопасности и сделать ограниченные операции рутинными.
Като назвал метод, используемый в этой атаке, «Иммерсивный Мир» — процесс, который выявляет слабые стороны широко используемых моделей чат-ботов. Хотя модели DeepSeek уже известны своими слабыми мерами безопасности, тот факт, что техника «Иммерсивного Мира» так легко работает даже против систем с сильной командой по безопасности, как у OpenAI и Microsoft, вызывает опасения.
Наша новая техника джейлбрейка LLM […] должна была быть заблокирована защитными барьерами ИИ. Однако этого не произошло,» сказал Этай Моар, главный стратегический специалист по безопасности Cato, подчеркивая серьезность проблемы.
В отчете Като говорится о том, что он поделился результатами своих исследований с соответствующими компаниями. OpenAI и Microsoft подтвердили получение отчета, однако компания DeepSeek не ответила на него. Google также признала результаты, но отказалась от рассмотрения критически важного кода, предложенного Като.
Отслеживание угроз от генеративного ИИ стало крайне важным, поскольку в докладе описывается способность манипулировать этими системами как ‘тревожный звонок’ для профессионалов кибербезопасности. Это показывает, насколько легко кто-то может стать ‘актором угрозы с нулевым знанием’, подразумевая, что им требуется минимальное знание для успешного проведения кибератак.
При создании с помощью чатботов все меньше барьеров для входа. Это значит, что злоумышленникам требуется меньшее количество знаний на начальном этапе, чтобы добиться успеха. Чтобы снизить риски от угроз, использующих ИИ, Като рекомендует применять стратегии безопасности на основе ИИ. Концентрация внимания на обучении, которое учитывает изменяющийся ландшафт кибербезопасности, может помочь командам справляться с вызовами, возникающими благодаря генеративным инструментам ИИ.
Смотрите также
- Avowed: Тотем упорства Руководство по выполнению миссии
- Коды дизайна персонажей Monster Hunter Wilds — Полное собрание
- Лучшие коды прицела для Marvel Rivals
- Руководство по DLC для Monster Hunter Wilds – Все платные и бесплатные DLC, Как получить дополнения, Подарочный набор, косметику и многое другое
- Мод Дженни на Майнкрафт 1.21 и 1.22: Подруга
- Kingdom Come Deliverance 2 Расположение свежих могил возле Тросковица
- Как начать и завершить квест «Канун Дня всех святых» в Fallout 4
- Руководство для начинающих King Arthur Legends Rise
- Kingdom Come Deliverance 2: Руководство по кузнечному делу
- Полное руководство по рангам в FragPunk [RELEASE]
2025-03-18 22:08