آیا ربات های هوشمصنوعی میتوانند ارزدیجیتال شما را بدزدند؟
رباتهای هوش مصنوعی نرمافزار خودآموزی هستند که حملات سایبری کریپتو را خودکار و به طور مداوم اصلاح میکنند و آنها را از روشهای هک سنتی خطرناکتر میکند.
در قلب جرایم سایبری مبنی بر هوش مصنوعی، رباتهای هوش مصنوعی قرار دارند – برنامههای نرمافزاری خودآموز که برای پردازش حجم وسیعی از دادهها، تصمیمگیری مستقل و اجرای وظایف پیچیده بدون دخالت انسان طراحی شدهاند. در حالی که این رباتها در صنایعی مانند امور مالی، مراقبتهای بهداشتی و خدمات مشتریان تغییر دهنده بازی بودهاند، اما به سلاحی برای مجرمان سایبری، بهویژه در دنیای ارزهای دیجیتال، تبدیل شدهاند.برخلاف روشهای هک سنتی، که نیازمند تلاش دستی و تخصص فنی هستند، رباتهای هوش مصنوعی میتوانند حملات را کاملاً خودکار کنند، با اقدامات امنیتی جدید ارزهای دیجیتال سازگار شوند و حتی تاکتیکهای خود را در طول زمان اصلاح کنند. این باعث می شود که آنها بسیار موثرتر از هکرهای انسانی هستند که توسط زمان، منابع و فرآیندهای مستعد خطا محدود هستند.
چرا ربات های هوش مصنوعی اینقدر خطرناک هستند؟
بزرگترین تهدید ناشی از جرایم سایبری مبتنی بر هوش مصنوعی مقیاس است. تنها یک هکر که تلاش می کند یک صرافی رمزنگاری را نقض کند یا کاربران را فریب دهد تا کلیدهای خصوصی خود را تحویل دهند، رباتهای میتوانند هزاران حمله را به طور همزمان انجام دهند و تکنیکهای خود را در حین پیشرفت اصلاح کنند.
سرعت: رباتهای هوش مصنوعی میتوانند میلیونها تراکنش بلاکچین، قراردادهای هوشمند و وبسایتها را در عرض چند دقیقه اسکن کنند و نقاط ضعف کیف پولها (که منجر به هک کیف پول کریپتو میشود)، پروتکلهای مالی غیرمتمرکز (DeFi) و مبادلات را شناسایی کنند.
مقیاس پذیری: یک کلاهبردار انسانی ممکن است برای چند صد نفر ایمیل های فیشینگ ارسال کند. یک ربات هوش مصنوعی می تواند ایمیل های فیشینگ شخصی سازی شده و کاملاً ساخته شده را در یک بازه زمانی به میلیون ها نفر ارسال کند.
سازگاری: یادگیری ماشینی به این رباتها اجازه میدهد تا با هر حمله ناموفق بهبود یابند و شناسایی و مسدود کردن آنها را سختتر میکند.
این توانایی برای خودکارسازی، انطباق و حمله در مقیاس منجر به افزایش کلاهبرداری رمزنگاری مبتنی بر هوش مصنوعی شده است و پیشگیری از کلاهبرداری کریپتو را بیش از هر زمان دیگری حیاتی کرده است.
در اکتبر ۲۰۲۴، حساب X Andy Ayrey، توسعه دهنده ترمینال ربات AI، توسط هکرها در معرض خطر قرار گرفت. مهاجمان از حساب Ayrey برای تبلیغ یک memecoin تقلبی به نام Infinite Backrooms (IB) استفاده کردند. این کمپین مخرب منجر به افزایش سریع سرمایه بازار IB شد وقیمت به ۲۵ میلیون دلار رسید. در عرض ۴۵ دقیقه، عاملان دارایی خود را تصفیه کردند و بیش از ۶۰۰۰۰۰ دلار را تضمین کردند.
چگونه رباتهای مجهز به هوش مصنوعی میتوانند داراییهای ارزهای دیجیتال را سرقت کنند
رباتهای مجهز به هوش مصنوعی فقط کلاهبرداریهای رمزنگاری را خودکار نمیکنند، بلکه هوشمندتر، هدفمندتر و تشخیص آنها سختتر میشوند.
در اینجا برخی از خطرناک ترین انواع کلاهبرداری های مبتنی بر هوش مصنوعی وجود دارد که در حال حاضر برای سرقت دارایی های ارزهای دیجیتال استفاده می شود:
حملات فیشینگ در کریپتو چیز جدیدی نیست، اما هوش مصنوعی آنها را به تهدیدی بسیار بزرگتر تبدیل کرده است. رباتهای هوش مصنوعی امروزی بهجای ایمیلهای شلخته پر از اشتباه، پیامهای شخصیسازی شدهای ایجاد میکنند که دقیقاً شبیه ارتباطات واقعی از پلتفرمهایی مانند Coinbase یا MetaMask هستند. آنها اطلاعات شخصی را از پایگاههای اطلاعاتی لو رفته، رسانههای اجتماعی و حتی سوابق بلاک چین جمعآوری میکنند و کلاهبرداریهایشان را بسیار قانعکننده میکنند.
به عنوان مثال، در اوایل سال ۲۰۲۴، یک حمله فیشینگ مبتنی بر هوش مصنوعی، کاربران کوینبیس را با ارسال ایمیلهایی در مورد هشدارهای امنیتی جعلی ارزهای دیجیتال هدف قرار داد، که در نهایت تقریباً ۶۵ میلیون دلار کاربران را فریب داد.همچنین، پس از راه اندازی OpenAI GPT، کلاهبرداران یک سایت airdrop توکن OpenAI جعلی ایجاد کردند تا از تبلیغات تبلیغاتی سوء استفاده کنند. آنها ایمیلها و پستهای X ارسال کردند که کاربران را به «ادعای» یک توکن جعلی میفرستاد – صفحه فیشینگ بهخوبی منعکسکننده سایت واقعی OpenAI بود. قربانیانی که طعمه را گرفتند و کیف پول خود را وصل کردند، تمام دارایی های رمزنگاری آنها به طور خودکار تخلیه شد.
برخلاف فیشینگ قدیمی، این کلاهبرداریهای تقویتشده با هوش مصنوعی و هدفگذاری شدهاند، اغلب عاری از اشتباهات تایپی یا عبارتهای ناشیانهای هستند که برای از بین بردن کلاهبرداری فیشینگ استفاده میشود. برخی حتی رباتهای چت هوش مصنوعی را به عنوان نمایندگان پشتیبانی مشتری برای صرافیها یا کیف پولها به کار میگیرند و کاربران را فریب میدهند تا کلیدهای خصوصی یا کدهای احراز هویت دو مرحلهای (2FA) را تحت پوشش «تأیید» فاش کنند. در سال ۲۰۲۲، برخی بدافزارها به طور خاص کیف پولهای مبتنی بر مرورگر مانند MetaMask را هدف قرار دادند: گونهای به نام Mars Stealer میتوانست کلیدهای خصوصی بیش از ۴۰ افزونه مرورگر کیف پول و برنامههای 2FA مختلف را شناسایی کند و هر گونه سرمایهای را که پیدا کند تخلیه کند. چنین بدافزاری اغلب از طریق پیوندهای فیشینگ، دانلود نرم افزارهای جعلی یا ابزارهای رمزنگاری غیرقانونی منتشر می شود.
هنگامی که وارد سیستم شما می شود، ممکن است کلیپ بورد شما را زیر نظر داشته باشد (برای تعویض آدرس مهاجم هنگام کپی-پیست کردن یک آدرس کیف پول)، کلیدهای شما را ثبت کند، یا فایل های عبارت اولیه شما را صادر کند – همه اینها بدون اینکه علائم آشکارداشته باشد.
ربات های اسکن اکسپلویت مجهز به هوش مصنوعی
آسیبپذیریهای قراردادهای هوشمند ، معدن طلای هکرها هستند و رباتهای هوشمند سریعتر از همیشه از این مزیت استفاده میکنند. این رباتها بهطور مداوم پلتفرمهایی مانند اتریوم یا زنجیره هوشمند BNB را اسکن میکنند و به دنبال نقص در پروژههای DeFi تازه استقرار شده هستند. به محض اینکه مشکلی را تشخیص دهند، به طور خودکار اغلب در عرض چند دقیقه از آن سوء استفاده می کنند، محققان نشان دادهاند که چترباتهای هوش مصنوعی، مانند آنهایی که توسط GPT-3 پشتیبانی میشوند، میتوانند کد قرارداد هوشمند را برای شناسایی نقاط ضعف قابل بهرهبرداری تجزیه و تحلیل کنند. به عنوان مثال، استفن تانگ، یکی از بنیانگذاران Zellic، یک ربات هوشمند چت را به نمایش گذاشت که آسیب پذیری را در عملکرد “خروج” قرارداد هوشمند شناسایی می کند، مشابه نقص مورد سوء استفاده در حمله پروتکل Fei، که منجر به ضرر ۸۰ میلیون دلاری شد.
حملات brute-force تقویت شده با هوش مصنوعی
حملات Brute-Force قبلاً برای همیشه طول میکشیدند، اما رباتهای هوش مصنوعی آنها را به طرز خطرناکی کارآمد کردهاند. این رباتها با تجزیه و تحلیل نقضهای رمز عبور قبلی، به سرعت الگوهایی را برای شکستن گذرواژهها و عبارات اولیه در زمان رکورد شناسایی میکنند. یک مطالعه در سال ۲۰۲۴ بر روی کیف پولهای رمزنگاری دسکتاپ، از جمله Sparrow، Etherwall و Bither، نشان داد که گذرواژههای ضعیف بهشدت مقاومت در برابر حملات brute-force را کاهش میدهند، و تأکید میکند که رمزهای عبور قوی و پیچیده برای محافظت از داراییهای دیجیتال بسیار مهم هستند.
ربات های جعل هویت
تصور کنید که ویدیویی از یک اینفلوئنسر یا مدیر عامل مورد اعتماد ارز دیجیتال را تماشا میکنید که از شما میخواهد سرمایهگذاری کنید اما کاملا جعلی است. این واقعیت کلاهبرداری های دیپ فیک است که توسط هوش مصنوعی طراحی شده است. این رباتها ویدیوها و صداهای ضبط شده فوقالعاده واقعی ایجاد میکنند و حتی دارندگان رمزارز باهوش را برای انتقال وجه فریب میدهند.
بات نت های رسانه های اجتماعی
در پلتفرمهایی مانند X و تلگرام، انبوهی از رباتهای هوش مصنوعی کلاهبرداریهای ارزهای دیجیتال را در مقیاس وسیع انجام میدهند. باتنتهایی مانند «Fox8» از ChatGPT برای ایجاد صدها پست متقاعدکننده که توکنهای کلاهبرداری را منتشر میکنند و در زمان واقعی به کاربران پاسخ میدهند، استفاده میکنند.
در یک مورد، کلاهبرداران از اسامی ایلان ماسک و ChatGPT سوء استفاده کردند تا یک هدیه ارز دیجیتال جعلی را تبلیغ کنند – که با یک ویدیوی عمیق جعلی از ماسک همراه بود – مردم را فریب دادند تا پولی برای کلاهبرداران ارسال کنند.
در سال ۲۰۲۳، محققان Sophos کلاهبرداران عاشقانه رمزنگاری را یافتند که از ChatGPT برای چت کردن همزمان با چندین قربانی استفاده میکردند و پیامهای محبت آمیز آنها را قانعکنندهتر و مقیاسپذیرتر میکردند. به طور مشابه، متا افزایش شدید بدافزارها و لینکهای فیشینگ را که به عنوان ابزارهای ChatGPT یا AI پنهان شده بودند، گزارش کرد که اغلب با طرحهای کلاهبرداری رمزنگاری مرتبط هستند. و در حوزه کلاهبرداری های عاشقانه، هوش مصنوعی عملیات به اصطلاح قصابی خوک ها را تقویت می کند – کلاهبرداری های طولانی مدت که در آن کلاهبرداران روابط خود را پرورش می دهند و سپس قربانیان را به سمت سرمایه گذاری های جعلی ارزهای دیجیتال می کشانند. یک مورد قابل توجه در سال ۲۰۲۴ در هنگ کنگ رخ داد: پلیس یک حلقه جنایتکار را که از طریق یک کلاهبرداری عاشقانه با کمک هوش مصنوعی از مردان در سراسر آسیا ۴۶ میلیون دلار کلاهبرداری می کرد، منهدم کرد.
آینده هوش مصنوعی در جرایم سایبری و امنیت رمزنگاری
همانطور که تهدیدات رمزنگاری مبتنی بر هوش مصنوعی به سرعت تکامل مییابند، راهحلهای امنیتی فعال و مبتنی بر هوش مصنوعی برای محافظت از داراییهای دیجیتال شما حیاتی میشوند.
با نگاهی به آینده، نقش هوش مصنوعی در جرایم سایبری احتمالاً تشدید میشود و به طور فزایندهای پیچیدهتر و تشخیص آن سختتر میشود. سیستمهای هوش مصنوعی پیشرفته حملات سایبری پیچیدهای مانند جعل هویت را خودکار میکنند، از آسیبپذیریهای قراردادهای هوشمند بلافاصله پس از شناسایی سوءاستفاده میکنند و کلاهبرداریهای فیشینگ را با هدف دقیق اجرا میکنند.
برای مقابله با این تهدیدات در حال تحول، امنیت بلاک چین به طور فزاینده ای بر تشخیص تهدیدات هوش مصنوعی در زمان واقعی تکیه می کند. پلتفرم هایی مانند CertiK در حال حاضر از مدل های پیشرفته یادگیری ماشینی استفاده می کنند تا روزانه میلیون ها تراکنش بلاک چین را اسکن کنند و فوراً ناهنجاری ها را شناسایی کنند.همانطور که تهدیدات سایبری هوشمندتر می شوند، این سیستم های هوش مصنوعی فعال در جلوگیری از نقض های بزرگ، کاهش خسارات مالی و مبارزه با هوش مصنوعی و کلاهبرداری مالی برای حفظ اعتماد در بازارهای رمزنگاری ضروری خواهند بود.
در نهایت، آینده امنیت کریپتو به شدت به همکاری در سطح صنعت و سیستم های دفاعی مشترک مبتنی بر هوش مصنوعی بستگی دارد. صرافیها، پلتفرمهای بلاک چین، ارائهدهندگان امنیت سایبری و تنظیمکنندهها باید همکاری نزدیکی داشته باشند و از هوش مصنوعی برای پیشبینی تهدیدات قبل از تحقق آنها استفاده کنند. در حالی که حملات سایبری مبتنی بر هوش مصنوعی به تکامل خود ادامه خواهند داد، بهترین دفاع جامعه رمزنگاری، آگاه بودن، فعال بودن و سازگاری است – تبدیل هوش مصنوعی از یک تهدید به قوی ترین متحد خود.