Коробка Пандоры: Как неограниченные большие модели угрожают безопасности Крипто

Средний6/10/2025, 1:50:06 AM
С распространением открытых крупных моделей, "неограниченные AI инструменты", такие как WormGPT и FraudGPT, злоупотребляются для генерации фишинговых писем, написания вредоносных контрактов и манипуляции пользовательскими сообществами, что представляет собой серьезную угрозу безопасности Криптоиндустрии. Эта статья подробно описывает принципы, применения и меры противодействия этим моделям, подавая сигнал тревоги для практиков Web3.

От серии GPT от OpenAI до Gemini от Google и различных открытых моделей, передовой искусственный интеллект глубоко меняет нашу работу и образ жизни. Однако наряду с быстрыми технологическими достижениями постепенно возникает тревожная темная сторона - рост неограниченных или злонамеренных крупных языковых моделей.

Так называемая неограниченная LLM относится к языковым моделям, которые специально разработаны, модифицированы или «взломаны», чтобы обойти встроенные механизмы безопасности и этические ограничения основных моделей. Разработчики основных LLM обычно вкладывают значительные ресурсы, чтобы предотвратить использование своих моделей для генерации ненавистнической речи, ложной информации, вредоносного кода или предоставления инструкций для незаконной деятельности. Однако в последние годы некоторые лица или организации начали искать или разрабатывать неограниченные модели с такими мотивами, как киберпреступность. В связи с этим в данной статье будет рассмотрено типичное использование инструментов неограниченной LLM, представлено их злоупотребление в Криптоиндустрии и обсуждены связанные с этим проблемы безопасности и меры реагирования.

Как неограниченные LLM могут быть вредоносными?

Задачи, которые ранее требовали профессиональных навыков, такие как написание вредоносного кода, создание фишинговых писем и планирование мошенничества, теперь могут быть легко выполнены обычными людьми без какого-либо опыта программирования с помощью неограниченных LLM. Злоумышленникам нужно только получить веса и исходный код моделей с открытым исходным кодом, а затем дообучить их на наборах данных, содержащих вредоносный контент, предвзятые утверждения или незаконные инструкции, чтобы создать индивидуализированные инструменты атаки.

Эта модель породила множество рисков: злоумышленники могут «магически модифицировать» модели на основе конкретных целей, чтобы генерировать более обманчивый контент, тем самым обходя проверку контента и ограничения безопасности традиционных LLM; модель также может быть использована для быстрого создания вариантов кода для фишинговых сайтов или адаптации мошеннических текстов для различных социальных медиа-платформ; тем временем доступность и модифицируемость открытых моделей продолжают способствовать формированию и распространению подпольной экосистемы ИИ, создавая благоприятные условия для незаконных сделок и разработок. Ниже приведено краткое введение в такие неограниченные LLM:

WormGPT: Черная версия GPT

WormGPT — это вредоносная LLM, открыто продаваемая на подпольных форумах, разработчики которой явно утверждают, что у него нет этических ограничений, что делает его черной версией модели GPT. Он основан на открытых моделях, таких как GPT-J 6B, и обучен на большом объеме данных, связанных с вредоносным ПО. Пользователи должны заплатить минимум 189 долларов, чтобы получить доступ на месяц. Самое известное использование WormGPT — это генерация высокореалистичных и убедительных писем для атак Business Email Compromise (BEC) и фишинговых писем. Его типичные злоупотребления в области шифрования включают:

  • Создание фишинговых писем/сообщений: Имитируйте криптовалютные биржи, кошельки или известные проекты, чтобы отправлять пользователям запросы на "верификацию аккаунта", побуждая их нажимать на вредоносные ссылки или раскрывать приватные ключи/сид-фразы;
  • Написание вредоносного кода: Помощь менее технически подготовленным злоумышленникам в написании вредоносного кода, который крадет файлы кошельков, отслеживает буфер обмена, регистрирует нажатия клавиш и т.д.
  • Запуск автоматизированных мошенничеств: Автоматически отвечать потенциальным жертвам, направляя их участвовать в поддельных эйрдропах или инвестиционных проектах.


DarkBERT: Двусторонний меч для контента Даркнета

DarkBERT — это языковая модель, разработанная в сотрудничестве между исследователями Корейского научно-технического института (KAIST) и S2W Inc., специально предварительно обученная на данных из даркнета (таких как форумы, черные рынки и утечка информации) с целью помочь исследователям в области кибербезопасности и правоохранительным органам лучше понять экосистему даркнета, отслеживать незаконные действия, выявлять потенциальные угрозы и собирать информацию о угрозах.

Хотя DarkBERT был разработан с благими намерениями, чувствительное содержание, которое он содержит относительно темной сети, включая данные, методы атак и незаконные торговые стратегии, может иметь серьезные последствия, если злонамеренные лица получат его или используют аналогичные технологии для обучения неограниченным большим моделям. Его потенциальное злоупотребление в сценариях шифрования включает:

  • Реализация точных мошенничеств: сбор информации о пользователях шифрования и командах проектов для мошенничества с социальным инженерингом.
  • Имитация преступного способа действия: Репликация проверенных тактик кражи крипто-валюты и отмывания денег в даркнете.

FraudGPT: Швейцарский нож онлайн-мошенничества

FraudGPT утверждает, что является улучшенной версией WormGPT, предлагая более комплексные функции, в основном продаваемые на темной сети и форумах хакеров, с ежемесячными платежами от $200 до $1,700. Его типичное злоупотребление в сценарии шифрования включает:

  • Поддельные проекты шифрования: Генерируйте фальшивые технические документы, официальные сайты, дорожные карты и маркетинговые тексты для реализации мошеннических ICO/IDO.
  • Пакетное создание фишинговых страниц: Быстро создавайте имитационные страницы входа для известных криптообменников или интерфейсов подключения кошельков.
  • Деятельность ботов в социальных медиа: массовое производство поддельных комментариев и пропаганды, продвижение мошеннических токенов или дискредитация конкурирующих проектов.
  • Социальная инженерия: Этот чат-бот может имитировать человеческие беседы, устанавливать доверие с ничего не подозревающими пользователями и诱惑ить их непреднамеренно раскрывать конфиденциальную информацию или выполнять вредные действия.

GhostGPT: Искусственный интеллект, не связанный моральными ограничениями

GhostGPT — это AI-чатбот, который явно позиционируется как не имеющий этических ограничений, с типичными злоупотреблениями в сценарии шифрования, включая:

  • Расширенные фишинговые атаки: Генерация высокореалистичных фишинговых электронных писем, которые выдают себя за основные биржи для отправки ложных запросов на проверку KYC, уведомлений о безопасности или уведомлений о блокировке аккаунта.
  • Генерация злонамеренного кода для смарт-контрактов: без какого-либо программного фона злоумышленники могут быстро создавать смарт-контракты, содержащие скрытые бэкдоры или мошенническую логику, используя GhostGPT, для схем Rug Pull или атак на DeFi-протоколы.
  • Полиморфный криптовалютный кражи: Генерирует вредоносное ПО с непрерывными возможностями морфинга для кражи файлов кошельков, приватных ключей и мнемонических фраз. Его полиморфные характеристики делают традиционное программное обеспечение безопасности на основе сигнатур трудным для обнаружения.
  • Социальные инженерные атаки: комбинируя скрипты, созданные ИИ, злоумышленники могут разворачивать ботов на платформах, таких как Discord и Telegram, чтобы заманить пользователей участвовать в фальшивом NFT-минтинге, аэрдропах или инвестиционных проектах.
  • Схемы с дипфейками: В сочетании с другими инструментами ИИ, GhostGPT может быть использован для генерации голосов фальшивых основателей крипто-проектов, инвесторов или руководителей бирж, реализуя телефонные мошенничества или атаки через деловую электронную почту (BEC).

Venice.ai: Потенциальные риски неконтролируемого доступа

Venice.ai предоставляет доступ к различным LLM, включая некоторые модели с меньшей проверкой или более свободными ограничениями. Он позиционирует себя как открытые Ворота для пользователей, чтобы исследовать возможности различных LLM, предлагая передовые, точные и немодерируемые модели для поистине неограниченного опыта ИИ, но также может быть использован злоумышленниками для генерации вредоносного контента. Риски, связанные с платформой, включают:

  • Обход цензуры для создания вредоносного контента: злоумышленники могут использовать модели с меньшими ограничениями на платформе для создания фишинговых шаблонов, ложной пропаганды или идей для атак.
  • Снизьте порог для создания подсказок: даже если у злоумышленников нет продвинутых навыков «взлома» подсказок, они могут легко получить выводы, которые изначально были ограничены.
  • Ускоренная итерация скриптов атак: Злоумышленники могут использовать эту платформу для быстрого тестирования реакций различных моделей на злонамеренные команды, оптимизируя мошеннические скрипты и методы атак.

Написано в конце

Появление неограниченных LLMs ознаменовывает новую парадигму атак на кибербезопасность, которая является более сложной, масштабируемой и автоматизированной. Эти модели не только снижают порог для атак, но и вводят новые угрозы, которые являются более скрытными и обманчивыми.

В этой непрерывной игре нападения и защиты все стороны в экосистеме безопасности должны работать вместе, чтобы справиться с будущими рисками: с одной стороны, необходимо увеличить инвестиции в технологии обнаружения, чтобы разработать системы, способные идентифицировать и перехватывать фишинговый контент, создаваемый вредоносными LLM, использующими уязвимости смарт-контрактов и вредоносный код; с другой стороны, также следует предпринять усилия для содействия строительству возможностей против джейлбрейкинга и исследовать механизмы водяных знаков и отслеживания для отслеживания источников вредоносного контента в критических сценариях, таких как финансы и генерация кода; кроме того, необходимо установить разумную этическую основу и регуляторный механизм, чтобы в корне ограничить разработку и злоупотребление вредоносными моделями.

Заявление:

  1. Эта статья перепечатана из [TechFlow] Авторское право принадлежит оригинальному автору [TechFlow] Если у вас есть какие-либо возражения против переиздания, пожалуйста, свяжитесь с Команда Gate LearnКоманда обработает это как можно быстрее в соответствии с соответствующими процедурами.
  2. Отказ от ответственности: Мнения и взгляды, выраженные в этой статье, принадлежат исключительно автору и не являются инвестиционным советом.
  3. Другие языковые версии статьи переведены командой Gate Learn, если не указано иное.ГейтПри таких обстоятельствах запрещено копировать, распространять или заимствовать переведенные статьи.

Коробка Пандоры: Как неограниченные большие модели угрожают безопасности Крипто

Средний6/10/2025, 1:50:06 AM
С распространением открытых крупных моделей, "неограниченные AI инструменты", такие как WormGPT и FraudGPT, злоупотребляются для генерации фишинговых писем, написания вредоносных контрактов и манипуляции пользовательскими сообществами, что представляет собой серьезную угрозу безопасности Криптоиндустрии. Эта статья подробно описывает принципы, применения и меры противодействия этим моделям, подавая сигнал тревоги для практиков Web3.

От серии GPT от OpenAI до Gemini от Google и различных открытых моделей, передовой искусственный интеллект глубоко меняет нашу работу и образ жизни. Однако наряду с быстрыми технологическими достижениями постепенно возникает тревожная темная сторона - рост неограниченных или злонамеренных крупных языковых моделей.

Так называемая неограниченная LLM относится к языковым моделям, которые специально разработаны, модифицированы или «взломаны», чтобы обойти встроенные механизмы безопасности и этические ограничения основных моделей. Разработчики основных LLM обычно вкладывают значительные ресурсы, чтобы предотвратить использование своих моделей для генерации ненавистнической речи, ложной информации, вредоносного кода или предоставления инструкций для незаконной деятельности. Однако в последние годы некоторые лица или организации начали искать или разрабатывать неограниченные модели с такими мотивами, как киберпреступность. В связи с этим в данной статье будет рассмотрено типичное использование инструментов неограниченной LLM, представлено их злоупотребление в Криптоиндустрии и обсуждены связанные с этим проблемы безопасности и меры реагирования.

Как неограниченные LLM могут быть вредоносными?

Задачи, которые ранее требовали профессиональных навыков, такие как написание вредоносного кода, создание фишинговых писем и планирование мошенничества, теперь могут быть легко выполнены обычными людьми без какого-либо опыта программирования с помощью неограниченных LLM. Злоумышленникам нужно только получить веса и исходный код моделей с открытым исходным кодом, а затем дообучить их на наборах данных, содержащих вредоносный контент, предвзятые утверждения или незаконные инструкции, чтобы создать индивидуализированные инструменты атаки.

Эта модель породила множество рисков: злоумышленники могут «магически модифицировать» модели на основе конкретных целей, чтобы генерировать более обманчивый контент, тем самым обходя проверку контента и ограничения безопасности традиционных LLM; модель также может быть использована для быстрого создания вариантов кода для фишинговых сайтов или адаптации мошеннических текстов для различных социальных медиа-платформ; тем временем доступность и модифицируемость открытых моделей продолжают способствовать формированию и распространению подпольной экосистемы ИИ, создавая благоприятные условия для незаконных сделок и разработок. Ниже приведено краткое введение в такие неограниченные LLM:

WormGPT: Черная версия GPT

WormGPT — это вредоносная LLM, открыто продаваемая на подпольных форумах, разработчики которой явно утверждают, что у него нет этических ограничений, что делает его черной версией модели GPT. Он основан на открытых моделях, таких как GPT-J 6B, и обучен на большом объеме данных, связанных с вредоносным ПО. Пользователи должны заплатить минимум 189 долларов, чтобы получить доступ на месяц. Самое известное использование WormGPT — это генерация высокореалистичных и убедительных писем для атак Business Email Compromise (BEC) и фишинговых писем. Его типичные злоупотребления в области шифрования включают:

  • Создание фишинговых писем/сообщений: Имитируйте криптовалютные биржи, кошельки или известные проекты, чтобы отправлять пользователям запросы на "верификацию аккаунта", побуждая их нажимать на вредоносные ссылки или раскрывать приватные ключи/сид-фразы;
  • Написание вредоносного кода: Помощь менее технически подготовленным злоумышленникам в написании вредоносного кода, который крадет файлы кошельков, отслеживает буфер обмена, регистрирует нажатия клавиш и т.д.
  • Запуск автоматизированных мошенничеств: Автоматически отвечать потенциальным жертвам, направляя их участвовать в поддельных эйрдропах или инвестиционных проектах.


DarkBERT: Двусторонний меч для контента Даркнета

DarkBERT — это языковая модель, разработанная в сотрудничестве между исследователями Корейского научно-технического института (KAIST) и S2W Inc., специально предварительно обученная на данных из даркнета (таких как форумы, черные рынки и утечка информации) с целью помочь исследователям в области кибербезопасности и правоохранительным органам лучше понять экосистему даркнета, отслеживать незаконные действия, выявлять потенциальные угрозы и собирать информацию о угрозах.

Хотя DarkBERT был разработан с благими намерениями, чувствительное содержание, которое он содержит относительно темной сети, включая данные, методы атак и незаконные торговые стратегии, может иметь серьезные последствия, если злонамеренные лица получат его или используют аналогичные технологии для обучения неограниченным большим моделям. Его потенциальное злоупотребление в сценариях шифрования включает:

  • Реализация точных мошенничеств: сбор информации о пользователях шифрования и командах проектов для мошенничества с социальным инженерингом.
  • Имитация преступного способа действия: Репликация проверенных тактик кражи крипто-валюты и отмывания денег в даркнете.

FraudGPT: Швейцарский нож онлайн-мошенничества

FraudGPT утверждает, что является улучшенной версией WormGPT, предлагая более комплексные функции, в основном продаваемые на темной сети и форумах хакеров, с ежемесячными платежами от $200 до $1,700. Его типичное злоупотребление в сценарии шифрования включает:

  • Поддельные проекты шифрования: Генерируйте фальшивые технические документы, официальные сайты, дорожные карты и маркетинговые тексты для реализации мошеннических ICO/IDO.
  • Пакетное создание фишинговых страниц: Быстро создавайте имитационные страницы входа для известных криптообменников или интерфейсов подключения кошельков.
  • Деятельность ботов в социальных медиа: массовое производство поддельных комментариев и пропаганды, продвижение мошеннических токенов или дискредитация конкурирующих проектов.
  • Социальная инженерия: Этот чат-бот может имитировать человеческие беседы, устанавливать доверие с ничего не подозревающими пользователями и诱惑ить их непреднамеренно раскрывать конфиденциальную информацию или выполнять вредные действия.

GhostGPT: Искусственный интеллект, не связанный моральными ограничениями

GhostGPT — это AI-чатбот, который явно позиционируется как не имеющий этических ограничений, с типичными злоупотреблениями в сценарии шифрования, включая:

  • Расширенные фишинговые атаки: Генерация высокореалистичных фишинговых электронных писем, которые выдают себя за основные биржи для отправки ложных запросов на проверку KYC, уведомлений о безопасности или уведомлений о блокировке аккаунта.
  • Генерация злонамеренного кода для смарт-контрактов: без какого-либо программного фона злоумышленники могут быстро создавать смарт-контракты, содержащие скрытые бэкдоры или мошенническую логику, используя GhostGPT, для схем Rug Pull или атак на DeFi-протоколы.
  • Полиморфный криптовалютный кражи: Генерирует вредоносное ПО с непрерывными возможностями морфинга для кражи файлов кошельков, приватных ключей и мнемонических фраз. Его полиморфные характеристики делают традиционное программное обеспечение безопасности на основе сигнатур трудным для обнаружения.
  • Социальные инженерные атаки: комбинируя скрипты, созданные ИИ, злоумышленники могут разворачивать ботов на платформах, таких как Discord и Telegram, чтобы заманить пользователей участвовать в фальшивом NFT-минтинге, аэрдропах или инвестиционных проектах.
  • Схемы с дипфейками: В сочетании с другими инструментами ИИ, GhostGPT может быть использован для генерации голосов фальшивых основателей крипто-проектов, инвесторов или руководителей бирж, реализуя телефонные мошенничества или атаки через деловую электронную почту (BEC).

Venice.ai: Потенциальные риски неконтролируемого доступа

Venice.ai предоставляет доступ к различным LLM, включая некоторые модели с меньшей проверкой или более свободными ограничениями. Он позиционирует себя как открытые Ворота для пользователей, чтобы исследовать возможности различных LLM, предлагая передовые, точные и немодерируемые модели для поистине неограниченного опыта ИИ, но также может быть использован злоумышленниками для генерации вредоносного контента. Риски, связанные с платформой, включают:

  • Обход цензуры для создания вредоносного контента: злоумышленники могут использовать модели с меньшими ограничениями на платформе для создания фишинговых шаблонов, ложной пропаганды или идей для атак.
  • Снизьте порог для создания подсказок: даже если у злоумышленников нет продвинутых навыков «взлома» подсказок, они могут легко получить выводы, которые изначально были ограничены.
  • Ускоренная итерация скриптов атак: Злоумышленники могут использовать эту платформу для быстрого тестирования реакций различных моделей на злонамеренные команды, оптимизируя мошеннические скрипты и методы атак.

Написано в конце

Появление неограниченных LLMs ознаменовывает новую парадигму атак на кибербезопасность, которая является более сложной, масштабируемой и автоматизированной. Эти модели не только снижают порог для атак, но и вводят новые угрозы, которые являются более скрытными и обманчивыми.

В этой непрерывной игре нападения и защиты все стороны в экосистеме безопасности должны работать вместе, чтобы справиться с будущими рисками: с одной стороны, необходимо увеличить инвестиции в технологии обнаружения, чтобы разработать системы, способные идентифицировать и перехватывать фишинговый контент, создаваемый вредоносными LLM, использующими уязвимости смарт-контрактов и вредоносный код; с другой стороны, также следует предпринять усилия для содействия строительству возможностей против джейлбрейкинга и исследовать механизмы водяных знаков и отслеживания для отслеживания источников вредоносного контента в критических сценариях, таких как финансы и генерация кода; кроме того, необходимо установить разумную этическую основу и регуляторный механизм, чтобы в корне ограничить разработку и злоупотребление вредоносными моделями.

Заявление:

  1. Эта статья перепечатана из [TechFlow] Авторское право принадлежит оригинальному автору [TechFlow] Если у вас есть какие-либо возражения против переиздания, пожалуйста, свяжитесь с Команда Gate LearnКоманда обработает это как можно быстрее в соответствии с соответствующими процедурами.
  2. Отказ от ответственности: Мнения и взгляды, выраженные в этой статье, принадлежат исключительно автору и не являются инвестиционным советом.
  3. Другие языковые версии статьи переведены командой Gate Learn, если не указано иное.ГейтПри таких обстоятельствах запрещено копировать, распространять или заимствовать переведенные статьи.
Начните торговать сейчас
Зарегистрируйтесь сейчас и получите ваучер на
$100
!