آیا ربات های هوش‌مصنوعی ‌میتوانند ارزدیجیتال شما را بدزدند؟

0 28
کانال سیگنال رایگان تلگرام فیوچرز ارزدیجیتال و فارکس

ربات‌های هوش مصنوعی نرم‌افزار خودآموزی هستند که حملات سایبری کریپتو را خودکار و به طور مداوم اصلاح می‌کنند و آنها را از روش‌های هک سنتی خطرناک‌تر می‌کند.

در قلب جرایم سایبری مبنی بر هوش مصنوعی، ربات‌های هوش مصنوعی قرار دارند – برنامه‌های نرم‌افزاری خودآموز که برای پردازش حجم وسیعی از داده‌ها، تصمیم‌گیری مستقل و اجرای وظایف پیچیده بدون دخالت انسان طراحی شده‌اند. در حالی که این ربات‌ها در صنایعی مانند امور مالی، مراقبت‌های بهداشتی و خدمات مشتریان تغییر دهنده بازی بوده‌اند، اما به سلاحی برای مجرمان سایبری، به‌ویژه در دنیای ارزهای دیجیتال، تبدیل شده‌اند.برخلاف روش‌های هک سنتی، که نیازمند تلاش دستی و تخصص فنی هستند، ربات‌های هوش مصنوعی می‌توانند حملات را کاملاً خودکار کنند، با اقدامات امنیتی جدید ارزهای دیجیتال سازگار شوند و حتی تاکتیک‌های خود را در طول زمان اصلاح کنند. این باعث می شود که آنها بسیار موثرتر از هکرهای انسانی هستند که توسط زمان، منابع و فرآیندهای مستعد خطا محدود هستند.

چرا ربات های هوش مصنوعی اینقدر خطرناک هستند؟

بزرگترین تهدید ناشی از جرایم سایبری مبتنی بر هوش مصنوعی مقیاس است. تنها یک هکر که تلاش می کند یک صرافی رمزنگاری را نقض کند یا کاربران را فریب دهد تا کلیدهای خصوصی خود را تحویل دهند، ربات‌های می‌توانند هزاران حمله را به طور همزمان انجام دهند و تکنیک‌های خود را در حین پیشرفت اصلاح کنند.

سرعت: ربات‌های هوش مصنوعی می‌توانند میلیون‌ها تراکنش بلاک‌چین، قراردادهای هوشمند و وب‌سایت‌ها را در عرض چند دقیقه اسکن کنند و نقاط ضعف کیف پول‌ها (که منجر به هک کیف پول کریپتو می‌شود)، پروتکل‌های مالی غیرمتمرکز (DeFi) و مبادلات را شناسایی کنند.

مقیاس پذیری: یک کلاهبردار انسانی ممکن است برای چند صد نفر ایمیل های فیشینگ ارسال کند. یک ربات هوش مصنوعی می تواند ایمیل های فیشینگ شخصی سازی شده و کاملاً ساخته شده را در یک بازه زمانی به میلیون ها نفر ارسال کند.

سازگاری: یادگیری ماشینی به این ربات‌ها اجازه می‌دهد تا با هر حمله ناموفق بهبود یابند و شناسایی و مسدود کردن آنها را سخت‌تر می‌کند.

این توانایی برای خودکارسازی، انطباق و حمله در مقیاس منجر به افزایش کلاهبرداری رمزنگاری مبتنی بر هوش مصنوعی شده است و پیشگیری از کلاهبرداری کریپتو را بیش از هر زمان دیگری حیاتی کرده است.

در اکتبر ۲۰۲۴، حساب X Andy Ayrey، توسعه دهنده ترمینال ربات AI، توسط هکرها در معرض خطر قرار گرفت. مهاجمان از حساب Ayrey برای تبلیغ یک memecoin تقلبی به نام Infinite Backrooms (IB) استفاده کردند. این کمپین مخرب منجر به افزایش سریع سرمایه بازار IB شد وقیمت به ۲۵ میلیون دلار رسید. در عرض ۴۵ دقیقه، عاملان دارایی خود را تصفیه کردند و بیش از ۶۰۰۰۰۰ دلار را تضمین کردند.

چگونه ربات‌های مجهز به هوش مصنوعی می‌توانند دارایی‌های ارزهای دیجیتال را سرقت کنند

ربات‌های مجهز به هوش مصنوعی فقط کلاهبرداری‌های رمزنگاری را خودکار نمی‌کنند، بلکه هوشمندتر، هدفمندتر و تشخیص آن‌ها سخت‌تر می‌شوند.

در اینجا برخی از خطرناک ترین انواع کلاهبرداری های مبتنی بر هوش مصنوعی وجود دارد که در حال حاضر برای سرقت دارایی های ارزهای دیجیتال استفاده می شود:

حملات فیشینگ در کریپتو چیز جدیدی نیست، اما هوش مصنوعی آنها را به تهدیدی بسیار بزرگ‌تر تبدیل کرده است. ربات‌های هوش مصنوعی امروزی به‌جای ایمیل‌های شلخته پر از اشتباه، پیام‌های شخصی‌سازی شده‌ای ایجاد می‌کنند که دقیقاً شبیه ارتباطات واقعی از پلتفرم‌هایی مانند Coinbase یا MetaMask هستند. آنها اطلاعات شخصی را از پایگاه‌های اطلاعاتی لو رفته، رسانه‌های اجتماعی و حتی سوابق بلاک چین جمع‌آوری می‌کنند و کلاهبرداری‌هایشان را بسیار قانع‌کننده می‌کنند.

به عنوان مثال، در اوایل سال ۲۰۲۴، یک حمله فیشینگ مبتنی بر هوش مصنوعی، کاربران کوین‌بیس را با ارسال ایمیل‌هایی در مورد هشدارهای امنیتی جعلی ارزهای دیجیتال هدف قرار داد، که در نهایت تقریباً ۶۵ میلیون دلار کاربران را فریب داد.همچنین، پس از راه اندازی OpenAI GPT، کلاهبرداران یک سایت airdrop توکن OpenAI جعلی ایجاد کردند تا از تبلیغات تبلیغاتی سوء استفاده کنند. آنها ایمیل‌ها و پست‌های X ارسال کردند که کاربران را به «ادعای» یک توکن جعلی می‌فرستاد – صفحه فیشینگ به‌خوبی منعکس‌کننده سایت واقعی OpenAI بود. قربانیانی که طعمه را گرفتند و کیف پول خود را وصل کردند، تمام دارایی های رمزنگاری آنها به طور خودکار تخلیه شد.

برخلاف فیشینگ قدیمی، این کلاهبرداری‌های تقویت‌شده با هوش مصنوعی و هدف‌گذاری شده‌اند، اغلب عاری از اشتباهات تایپی یا عبارت‌های ناشیانه‌ای هستند که برای از بین بردن کلاهبرداری فیشینگ استفاده می‌شود. برخی حتی ربات‌های چت هوش مصنوعی را به عنوان نمایندگان پشتیبانی مشتری برای صرافی‌ها یا کیف پول‌ها به کار می‌گیرند و کاربران را فریب می‌دهند تا کلیدهای خصوصی یا کدهای احراز هویت دو مرحله‌ای (2FA) را تحت پوشش «تأیید» فاش کنند. در سال ۲۰۲۲، برخی بدافزارها به طور خاص کیف پول‌های مبتنی بر مرورگر مانند MetaMask را هدف قرار دادند: گونه‌ای به نام Mars Stealer می‌توانست کلیدهای خصوصی بیش از ۴۰ افزونه مرورگر کیف پول و برنامه‌های 2FA مختلف را شناسایی کند و هر گونه سرمایه‌ای را که پیدا کند تخلیه کند. چنین بدافزاری اغلب از طریق پیوندهای فیشینگ، دانلود نرم افزارهای جعلی یا ابزارهای رمزنگاری غیرقانونی منتشر می شود.

هنگامی که وارد سیستم شما می شود، ممکن است کلیپ بورد شما را زیر نظر داشته باشد (برای تعویض آدرس مهاجم هنگام کپی-پیست کردن یک آدرس کیف پول)، کلیدهای شما را ثبت کند، یا فایل های عبارت اولیه شما را صادر کند – همه اینها بدون اینکه علائم آشکارداشته باشد.

ربات های اسکن اکسپلویت مجهز به هوش مصنوعی

آسیب‌پذیری‌های قراردادهای هوشمند ، معدن طلای هکرها هستند و ربات‌های هوشمند سریع‌تر از همیشه از این مزیت استفاده می‌کنند. این ربات‌ها به‌طور مداوم پلتفرم‌هایی مانند اتریوم یا زنجیره هوشمند BNB را اسکن می‌کنند و به دنبال نقص در پروژه‌های DeFi تازه استقرار شده هستند. به محض اینکه مشکلی را تشخیص دهند، به طور خودکار اغلب در عرض چند دقیقه از آن سوء استفاده می کنند، محققان نشان داده‌اند که چت‌ربات‌های هوش مصنوعی، مانند آن‌هایی که توسط GPT-3 پشتیبانی می‌شوند، می‌توانند کد قرارداد هوشمند را برای شناسایی نقاط ضعف قابل بهره‌برداری تجزیه و تحلیل کنند. به عنوان مثال، استفن تانگ، یکی از بنیانگذاران Zellic، یک ربات هوشمند چت را به نمایش گذاشت که آسیب پذیری را در عملکرد “خروج” قرارداد هوشمند شناسایی می کند، مشابه نقص مورد سوء استفاده در حمله پروتکل Fei، که منجر به ضرر ۸۰ میلیون دلاری شد.

حملات brute-force تقویت شده با هوش مصنوعی

حملات Brute-Force قبلاً برای همیشه طول می‌کشیدند، اما ربات‌های هوش مصنوعی آنها را به طرز خطرناکی کارآمد کرده‌اند. این ربات‌ها با تجزیه و تحلیل نقض‌های رمز عبور قبلی، به سرعت الگوهایی را برای شکستن گذرواژه‌ها و عبارات اولیه در زمان رکورد شناسایی می‌کنند. یک مطالعه در سال ۲۰۲۴ بر روی کیف پول‌های رمزنگاری دسکتاپ، از جمله Sparrow، Etherwall و Bither، نشان داد که گذرواژه‌های ضعیف به‌شدت مقاومت در برابر حملات brute-force را کاهش می‌دهند، و تأکید می‌کند که رمزهای عبور قوی و پیچیده برای محافظت از دارایی‌های دیجیتال بسیار مهم هستند.

ربات های جعل هویت

تصور کنید که ویدیویی از یک اینفلوئنسر یا مدیر عامل مورد اعتماد ارز دیجیتال را تماشا می‌کنید که از شما می‌خواهد سرمایه‌گذاری کنید اما کاملا جعلی است. این واقعیت کلاهبرداری های دیپ فیک است که توسط هوش مصنوعی طراحی شده است. این ربات‌ها ویدیوها و صداهای ضبط شده فوق‌العاده واقعی ایجاد می‌کنند و حتی دارندگان رمزارز باهوش را برای انتقال وجه فریب می‌دهند.

بات نت های رسانه های اجتماعی

در پلتفرم‌هایی مانند X و تلگرام، انبوهی از ربات‌های هوش مصنوعی کلاهبرداری‌های ارزهای دیجیتال را در مقیاس وسیع انجام می‌دهند. بات‌نت‌هایی مانند «Fox8» از ChatGPT برای ایجاد صدها پست متقاعدکننده که توکن‌های کلاهبرداری را منتشر می‌کنند و در زمان واقعی به کاربران پاسخ می‌دهند، استفاده می‌کنند.

در یک مورد، کلاهبرداران از اسامی ایلان ماسک و ChatGPT سوء استفاده کردند تا یک هدیه ارز دیجیتال جعلی را تبلیغ کنند – که با یک ویدیوی عمیق جعلی از ماسک همراه بود – مردم را فریب دادند تا پولی برای کلاهبرداران ارسال کنند.

در سال ۲۰۲۳، محققان Sophos کلاهبرداران عاشقانه رمزنگاری را یافتند که از ChatGPT برای چت کردن همزمان با چندین قربانی استفاده می‌کردند و پیام‌های محبت آمیز آنها را قانع‌کننده‌تر و مقیاس‌پذیرتر می‌کردند. به طور مشابه، متا افزایش شدید بدافزارها و لینک‌های فیشینگ را که به عنوان ابزارهای ChatGPT یا AI پنهان شده بودند، گزارش کرد که اغلب با طرح‌های کلاهبرداری رمزنگاری مرتبط هستند. و در حوزه کلاهبرداری های عاشقانه، هوش مصنوعی عملیات به اصطلاح قصابی خوک ها را تقویت می کند – کلاهبرداری های طولانی مدت که در آن کلاهبرداران روابط خود را پرورش می دهند و سپس قربانیان را به سمت سرمایه گذاری های جعلی ارزهای دیجیتال می کشانند. یک مورد قابل توجه در سال ۲۰۲۴ در هنگ کنگ رخ داد: پلیس یک حلقه جنایتکار را که از طریق یک کلاهبرداری عاشقانه با کمک هوش مصنوعی از مردان در سراسر آسیا ۴۶ میلیون دلار کلاهبرداری می کرد، منهدم کرد.

آینده هوش مصنوعی در جرایم سایبری و امنیت رمزنگاری

همانطور که تهدیدات رمزنگاری مبتنی بر هوش مصنوعی به سرعت تکامل می‌یابند، راه‌حل‌های امنیتی فعال و مبتنی بر هوش مصنوعی برای محافظت از دارایی‌های دیجیتال شما حیاتی می‌شوند.

با نگاهی به آینده، نقش هوش مصنوعی در جرایم سایبری احتمالاً تشدید می‌شود و به طور فزاینده‌ای پیچیده‌تر و تشخیص آن سخت‌تر می‌شود. سیستم‌های هوش مصنوعی پیشرفته حملات سایبری پیچیده‌ای مانند جعل هویت را خودکار می‌کنند، از آسیب‌پذیری‌های قراردادهای هوشمند بلافاصله پس از شناسایی سوءاستفاده می‌کنند و کلاهبرداری‌های فیشینگ را با هدف دقیق اجرا می‌کنند.

برای مقابله با این تهدیدات در حال تحول، امنیت بلاک چین به طور فزاینده ای بر تشخیص تهدیدات هوش مصنوعی در زمان واقعی تکیه می کند. پلتفرم هایی مانند CertiK در حال حاضر از مدل های پیشرفته یادگیری ماشینی استفاده می کنند تا روزانه میلیون ها تراکنش بلاک چین را اسکن کنند و فوراً ناهنجاری ها را شناسایی کنند.همانطور که تهدیدات سایبری هوشمندتر می شوند، این سیستم های هوش مصنوعی فعال در جلوگیری از نقض های بزرگ، کاهش خسارات مالی و مبارزه با هوش مصنوعی و کلاهبرداری مالی برای حفظ اعتماد در بازارهای رمزنگاری ضروری خواهند بود.

در نهایت، آینده امنیت کریپتو به شدت به همکاری در سطح صنعت و سیستم های دفاعی مشترک مبتنی بر هوش مصنوعی بستگی دارد. صرافی‌ها، پلتفرم‌های بلاک چین، ارائه‌دهندگان امنیت سایبری و تنظیم‌کننده‌ها باید همکاری نزدیکی داشته باشند و از هوش مصنوعی برای پیش‌بینی تهدیدات قبل از تحقق آنها استفاده کنند. در حالی که حملات سایبری مبتنی بر هوش مصنوعی به تکامل خود ادامه خواهند داد، بهترین دفاع جامعه رمزنگاری، آگاه بودن، فعال بودن و سازگاری است – تبدیل هوش مصنوعی از یک تهدید به قوی ترین متحد خود.

منبع

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.