ویتالیک بوترین اعلام کرده است که اهدای قبلی او به مؤسسه Future of Life (FLI) به معنای موافقت با موضع سیاسی فعلی این گروه درباره هوش مصنوعی نیست.
به گفته او، کمپینهای سیاسی بزرگ درباره ایمنی هوش مصنوعی میتواند به نتایج اقتدارگرایانه یا واکنش جهانی منفی منجر شود، اگر دولتها و شرکتها برای کنترل این فناوری با یکدیگر رقابت کنند.
توضیح بوترین درباره ارتباط با FLI
همبنیانگذار اتریوم در یک پست مفصل در شبکه اجتماعی X توضیح داد که پس از آنکه سازندگان شیبا اینو (SHIB) نیمی از عرضه این رمز ارز را برای کمک به تبلیغ این میم کوین به او ارسال کردند، با FLI همکاری کرد. مدت کوتاهی بعد، ارزش کاغذی این توکنها به شدت افزایش یافت و حتی از یک میلیارد دلار هم عبور کرد.
بوترین گفت که فکر میکرد این حباب به سرعت خواهد ترکید، بنابراین بخشی از SHIB را به ETH تبدیل کرد و وجوه به دست آمده را به چندین هدف خیریه اهدا نمود. او همچنین نیمی از SHIB باقیمانده را به CryptoRelief، یک پروژه امدادرسانی پزشکی در هند، و نیم دیگر را به FLI اهدا کرد.
در نهایت، این مؤسسه حدود ۵۰۰ میلیون دلار از فروش SHIB اهدایی نقد کرد؛ رقمی بسیار بیشتر از آنچه بوترین با توجه به حجم معاملات پایین این توکن انتظار داشت. او میگوید به دلیل نقشه راه FLI که شامل مقابله با ریسکهای وجودی در حوزههای ایمنی زیستی، هستهای و هوش مصنوعی و همچنین ابتکارات صلحطلبانه و علمی بود، به این مؤسسه علاقهمند شد.
با این حال، به گفته او، این سازمان از آن زمان تمرکز خود را تغییر داده و اکنون بیشتر بر اقدامات فرهنگی و سیاسی متمرکز شده است. آنها این تغییر رویکرد را با توجه به شرایط جدید و گسترش هوش مصنوعی عمومی توجیه کردند تا بتوانند بهتر با لابیگری شرکتهای بزرگ هوش مصنوعی مقابله کنند.
نگرانیها درباره رویکردهای سیاسی
بوترین تأکید کرد که تمرکز بر کمپینهای سیاسی یا مقرراتی برای کنترل توسعه هوش مصنوعی میتواند به ایجاد سیستمهای شکننده یا ساختارهای قدرت متمرکز منجر شود.
«نگرانی من این است که اقدامات سیاسی هماهنگ در مقیاس بزرگ با منابع مالی عظیم، به راحتی میتواند به نتایج ناخواسته، واکنشهای منفی و حل مشکلات به شیوهای اقتدارگرایانه و شکننده منجر شود، حتی اگر در ابتدا چنین هدفی نداشته باشد.»
این توسعهدهنده ۳۲ ساله گفت که محدود کردن ابزارهای زیستسنتز یا مدلهای هوش مصنوعی با اعمال محدودیتهایی که مانع تولید محتوای مخرب میشود، راهکاری ضعیف است که به راحتی میتوان آن را دور زد. او افزود که چنین استراتژیهایی ممکن است باعث شود دولتها سیستمهای متنباز را ممنوع کنند یا تنها یک شرکت «تأییدشده» را برای توسعه هوش مصنوعی حمایت نمایند.
«رویکردهایی از این دست به سادگی نتیجه معکوس میدهند. آنها بقیه جهان را به دشمن شما تبدیل میکنند.»
پیشنهاد او رویکردی فناورانه است که بر توسعه ابزارهای دفاعی برای کمک به ایمنی جامعه در دنیایی با فناوریهای قدرتمند تمرکز دارد. او اشاره کرد که تصمیمات اخیرش برای تأمین مالی شامل حدود ۴۰ میلیون دلار برای تحقیقات در زمینه ساخت سختافزار و سیستمهای امن است که میتواند حریم خصوصی دیجیتال و امنیت سایبری را بهبود بخشد.
منبع: لینک خبر






