AI нападает на отрасль шифрования! Код ChatGPT скрывает ловушки, написанные мем-ботом, попадается на удочку

robot
Генерация тезисов в процессе

Один пользователь Интернета поделился трагедией, которая произошла с ним при использовании большой языковой модели ChatGPT. @r_cky0 говорит, что вначале он использовал ChatGPT для помощи в написании bump-бота, но в предложенном ChatGPT коде был скрыт фишинг-сайт. Используя API этого сайта, @r_cky0 обнаружил, что все деньги в его кошельке были украдены, и он потерял 2500 долларов. После расследования выяснилось, что код API передавал свой закрытый ключ на фишинг-сайт, и @r_cky0 начал сомневаться в надежности ChatGPT.

Основатель компании по кибербезопасности SlowMist, Ю Сянь, комментирует: «Когда вы играете с GPT/Claude и другими LLM, обязательно обратите внимание на то, что эти LLM подвержены общим мошенническим действиям. Ранее я упоминал о атаках отравлением ИИ, а теперь у нас есть реальный случай атаки на индустрию криптовалют.»

ChatGPT ищет информацию в Интернете, анализирует и организует ее для пользователей. В настоящее время еще сложно проверить факты и проводить безопасный аудит. Если злоумышленники намеренно привлекут базу данных AI и скроют вредоносную информацию в ней, то это может привести к рискам после более широкого распространения AI.

Эта статья AI нападает на отрасльшифрования! Код ChatGPT скрывает ловушки, написанные мем-ботом, который сам попался на удочку, впервые появилась на новостном портале ABMedia.

GPT-0.87%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить