От серии GPT от OpenAI до Gemini от Google и различных открытых моделей, передовой искусственный интеллект глубоко меняет нашу работу и образ жизни. Однако наряду с быстрыми технологическими достижениями постепенно возникает тревожная темная сторона - рост неограниченных или злонамеренных крупных языковых моделей.
Так называемая неограниченная LLM относится к языковым моделям, которые специально разработаны, модифицированы или «взломаны», чтобы обойти встроенные механизмы безопасности и этические ограничения основных моделей. Разработчики основных LLM обычно вкладывают значительные ресурсы, чтобы предотвратить использование своих моделей для генерации ненавистнической речи, ложной информации, вредоносного кода или предоставления инструкций для незаконной деятельности. Однако в последние годы некоторые лица или организации начали искать или разрабатывать неограниченные модели с такими мотивами, как киберпреступность. В связи с этим в данной статье будет рассмотрено типичное использование инструментов неограниченной LLM, представлено их злоупотребление в Криптоиндустрии и обсуждены связанные с этим проблемы безопасности и меры реагирования.
Задачи, которые ранее требовали профессиональных навыков, такие как написание вредоносного кода, создание фишинговых писем и планирование мошенничества, теперь могут быть легко выполнены обычными людьми без какого-либо опыта программирования с помощью неограниченных LLM. Злоумышленникам нужно только получить веса и исходный код моделей с открытым исходным кодом, а затем дообучить их на наборах данных, содержащих вредоносный контент, предвзятые утверждения или незаконные инструкции, чтобы создать индивидуализированные инструменты атаки.
Эта модель породила множество рисков: злоумышленники могут «магически модифицировать» модели на основе конкретных целей, чтобы генерировать более обманчивый контент, тем самым обходя проверку контента и ограничения безопасности традиционных LLM; модель также может быть использована для быстрого создания вариантов кода для фишинговых сайтов или адаптации мошеннических текстов для различных социальных медиа-платформ; тем временем доступность и модифицируемость открытых моделей продолжают способствовать формированию и распространению подпольной экосистемы ИИ, создавая благоприятные условия для незаконных сделок и разработок. Ниже приведено краткое введение в такие неограниченные LLM:
WormGPT — это вредоносная LLM, открыто продаваемая на подпольных форумах, разработчики которой явно утверждают, что у него нет этических ограничений, что делает его черной версией модели GPT. Он основан на открытых моделях, таких как GPT-J 6B, и обучен на большом объеме данных, связанных с вредоносным ПО. Пользователи должны заплатить минимум 189 долларов, чтобы получить доступ на месяц. Самое известное использование WormGPT — это генерация высокореалистичных и убедительных писем для атак Business Email Compromise (BEC) и фишинговых писем. Его типичные злоупотребления в области шифрования включают:
DarkBERT — это языковая модель, разработанная в сотрудничестве между исследователями Корейского научно-технического института (KAIST) и S2W Inc., специально предварительно обученная на данных из даркнета (таких как форумы, черные рынки и утечка информации) с целью помочь исследователям в области кибербезопасности и правоохранительным органам лучше понять экосистему даркнета, отслеживать незаконные действия, выявлять потенциальные угрозы и собирать информацию о угрозах.
Хотя DarkBERT был разработан с благими намерениями, чувствительное содержание, которое он содержит относительно темной сети, включая данные, методы атак и незаконные торговые стратегии, может иметь серьезные последствия, если злонамеренные лица получат его или используют аналогичные технологии для обучения неограниченным большим моделям. Его потенциальное злоупотребление в сценариях шифрования включает:
FraudGPT: Швейцарский нож онлайн-мошенничества
FraudGPT утверждает, что является улучшенной версией WormGPT, предлагая более комплексные функции, в основном продаваемые на темной сети и форумах хакеров, с ежемесячными платежами от $200 до $1,700. Его типичное злоупотребление в сценарии шифрования включает:
GhostGPT — это AI-чатбот, который явно позиционируется как не имеющий этических ограничений, с типичными злоупотреблениями в сценарии шифрования, включая:
Venice.ai предоставляет доступ к различным LLM, включая некоторые модели с меньшей проверкой или более свободными ограничениями. Он позиционирует себя как открытые Ворота для пользователей, чтобы исследовать возможности различных LLM, предлагая передовые, точные и немодерируемые модели для поистине неограниченного опыта ИИ, но также может быть использован злоумышленниками для генерации вредоносного контента. Риски, связанные с платформой, включают:
Появление неограниченных LLMs ознаменовывает новую парадигму атак на кибербезопасность, которая является более сложной, масштабируемой и автоматизированной. Эти модели не только снижают порог для атак, но и вводят новые угрозы, которые являются более скрытными и обманчивыми.
В этой непрерывной игре нападения и защиты все стороны в экосистеме безопасности должны работать вместе, чтобы справиться с будущими рисками: с одной стороны, необходимо увеличить инвестиции в технологии обнаружения, чтобы разработать системы, способные идентифицировать и перехватывать фишинговый контент, создаваемый вредоносными LLM, использующими уязвимости смарт-контрактов и вредоносный код; с другой стороны, также следует предпринять усилия для содействия строительству возможностей против джейлбрейкинга и исследовать механизмы водяных знаков и отслеживания для отслеживания источников вредоносного контента в критических сценариях, таких как финансы и генерация кода; кроме того, необходимо установить разумную этическую основу и регуляторный механизм, чтобы в корне ограничить разработку и злоупотребление вредоносными моделями.
Пригласить больше голосов
От серии GPT от OpenAI до Gemini от Google и различных открытых моделей, передовой искусственный интеллект глубоко меняет нашу работу и образ жизни. Однако наряду с быстрыми технологическими достижениями постепенно возникает тревожная темная сторона - рост неограниченных или злонамеренных крупных языковых моделей.
Так называемая неограниченная LLM относится к языковым моделям, которые специально разработаны, модифицированы или «взломаны», чтобы обойти встроенные механизмы безопасности и этические ограничения основных моделей. Разработчики основных LLM обычно вкладывают значительные ресурсы, чтобы предотвратить использование своих моделей для генерации ненавистнической речи, ложной информации, вредоносного кода или предоставления инструкций для незаконной деятельности. Однако в последние годы некоторые лица или организации начали искать или разрабатывать неограниченные модели с такими мотивами, как киберпреступность. В связи с этим в данной статье будет рассмотрено типичное использование инструментов неограниченной LLM, представлено их злоупотребление в Криптоиндустрии и обсуждены связанные с этим проблемы безопасности и меры реагирования.
Задачи, которые ранее требовали профессиональных навыков, такие как написание вредоносного кода, создание фишинговых писем и планирование мошенничества, теперь могут быть легко выполнены обычными людьми без какого-либо опыта программирования с помощью неограниченных LLM. Злоумышленникам нужно только получить веса и исходный код моделей с открытым исходным кодом, а затем дообучить их на наборах данных, содержащих вредоносный контент, предвзятые утверждения или незаконные инструкции, чтобы создать индивидуализированные инструменты атаки.
Эта модель породила множество рисков: злоумышленники могут «магически модифицировать» модели на основе конкретных целей, чтобы генерировать более обманчивый контент, тем самым обходя проверку контента и ограничения безопасности традиционных LLM; модель также может быть использована для быстрого создания вариантов кода для фишинговых сайтов или адаптации мошеннических текстов для различных социальных медиа-платформ; тем временем доступность и модифицируемость открытых моделей продолжают способствовать формированию и распространению подпольной экосистемы ИИ, создавая благоприятные условия для незаконных сделок и разработок. Ниже приведено краткое введение в такие неограниченные LLM:
WormGPT — это вредоносная LLM, открыто продаваемая на подпольных форумах, разработчики которой явно утверждают, что у него нет этических ограничений, что делает его черной версией модели GPT. Он основан на открытых моделях, таких как GPT-J 6B, и обучен на большом объеме данных, связанных с вредоносным ПО. Пользователи должны заплатить минимум 189 долларов, чтобы получить доступ на месяц. Самое известное использование WormGPT — это генерация высокореалистичных и убедительных писем для атак Business Email Compromise (BEC) и фишинговых писем. Его типичные злоупотребления в области шифрования включают:
DarkBERT — это языковая модель, разработанная в сотрудничестве между исследователями Корейского научно-технического института (KAIST) и S2W Inc., специально предварительно обученная на данных из даркнета (таких как форумы, черные рынки и утечка информации) с целью помочь исследователям в области кибербезопасности и правоохранительным органам лучше понять экосистему даркнета, отслеживать незаконные действия, выявлять потенциальные угрозы и собирать информацию о угрозах.
Хотя DarkBERT был разработан с благими намерениями, чувствительное содержание, которое он содержит относительно темной сети, включая данные, методы атак и незаконные торговые стратегии, может иметь серьезные последствия, если злонамеренные лица получат его или используют аналогичные технологии для обучения неограниченным большим моделям. Его потенциальное злоупотребление в сценариях шифрования включает:
FraudGPT: Швейцарский нож онлайн-мошенничества
FraudGPT утверждает, что является улучшенной версией WormGPT, предлагая более комплексные функции, в основном продаваемые на темной сети и форумах хакеров, с ежемесячными платежами от $200 до $1,700. Его типичное злоупотребление в сценарии шифрования включает:
GhostGPT — это AI-чатбот, который явно позиционируется как не имеющий этических ограничений, с типичными злоупотреблениями в сценарии шифрования, включая:
Venice.ai предоставляет доступ к различным LLM, включая некоторые модели с меньшей проверкой или более свободными ограничениями. Он позиционирует себя как открытые Ворота для пользователей, чтобы исследовать возможности различных LLM, предлагая передовые, точные и немодерируемые модели для поистине неограниченного опыта ИИ, но также может быть использован злоумышленниками для генерации вредоносного контента. Риски, связанные с платформой, включают:
Появление неограниченных LLMs ознаменовывает новую парадигму атак на кибербезопасность, которая является более сложной, масштабируемой и автоматизированной. Эти модели не только снижают порог для атак, но и вводят новые угрозы, которые являются более скрытными и обманчивыми.
В этой непрерывной игре нападения и защиты все стороны в экосистеме безопасности должны работать вместе, чтобы справиться с будущими рисками: с одной стороны, необходимо увеличить инвестиции в технологии обнаружения, чтобы разработать системы, способные идентифицировать и перехватывать фишинговый контент, создаваемый вредоносными LLM, использующими уязвимости смарт-контрактов и вредоносный код; с другой стороны, также следует предпринять усилия для содействия строительству возможностей против джейлбрейкинга и исследовать механизмы водяных знаков и отслеживания для отслеживания источников вредоносного контента в критических сценариях, таких как финансы и генерация кода; кроме того, необходимо установить разумную этическую основу и регуляторный механизм, чтобы в корне ограничить разработку и злоупотребление вредоносными моделями.