ویتالیک بوترین: توقف نرم پردازش محاسباتی برای مقابله با خطرات هوش مصنوعی

انتشار 4 روز قبل
آنچه می‌خوانید...

“ویتالیک بوترین” می‌گوید به‌عنوان آخرین راهکار برای “کُند کردن” توسعه انواع خطرناک هوش مصنوعی (AI) فوق‌هوشمند، می‌توان ظرفیت پردازش محاسباتی جهانی را برای یک یا دو سال محدود کرد.

خطرات هوش مصنوعی

به گزارش ارزینجا و به نقل از Cointelegraph، “ویتالیک بوترین” هم‌بنیان‌گذار اتریوم (ETH) در یک پست وبلاگی که در ۵ ژانویه منتشر کرد، پیشنهاد داد که “توقفی موقت” در دسترسی جهانی به ظرفیت محاسباتی می‌تواند راهی برای “خرید زمان بیشتر برای بشریت” در صورت ظهور نوعی هوش مصنوعی فوق‌هوشمند خطرناک باشد. این پست ادامه‌ای بر مطلب قبلی او در نوامبر ۲۰۲۳ درباره ایده “شتاب‌دهی تدافعی” یا  d/acc بود. بوترین همچنین هشدار داد که ظهور هوش مصنوعی فوق‌هوشمند ممکن است تنها پنج سال دیگر فاصله داشته باشد و نتیجه این اتفاق نیز مشخص نیست که لزوماً مثبت باشد.

ایده توقف نرم برای مقابله با خطرات هوش مصنوعی

بوترین بیان کرد که “توقف نرم” در سخت‌افزارهای صنعتی با مقیاس‌ بزرگ می‌تواند راهکاری برای کاهش سرعت توسعه هوش مصنوعی در چنین شرایطی باشد. این ایده شامل کاهش ۹۹ درصدی ظرفیت محاسباتی جهانی به مدت ۱ تا ۲ سال است تا بشر فرصت آماده‌سازی بیشتری پیدا کند.

هوش مصنوعی فوق‌هوشمند مدلی نظری است که معمولاً به‌عنوان موجودی بسیار باهوش‌تر از باهوش‌ترین انسان‌ها در تمامی حوزه‌های تخصصی تعریف می‌شود. در همین حال، بسیاری از مدیران فناوری و پژوهشگران نگرانی‌های خود را درباره هوش مصنوعی ابراز کرده‌اند. در مارس ۲۰۲۳ نیز بیش از ۲۶۰۰ نفر در نامه‌ای سرگشاده خواستار توقف توسعه هوش مصنوعی شدند و به “خطرات عمیق برای جامعه و بشریت” اشاره کردند.

هم‌بنیان‌گذار اتریوم همچنین یادآور شد که پست اولیه‌اش در معرفی d/acc تنها به “درخواست‌های مبهم برای عدم توسعه انواع خطرناک هوش مصنوعی فوق‌هوشمند” بسنده کرده بود، اما در این پست جدید، نظراتش درباره مقابله با سناریویی که در آن ریسک هوش مصنوعی بالا باشد را مطرح کرد. بااین‌حال، بوترین تأکید کرد که تنها در صورتی از توقف نرم سخت‌افزاری حمایت می‌کند که “متقاعد شود به چیزی قوی‌تر از قواعد مسئولیت‌پذیری نیاز داریم”؛ قواعدی که بر اساس آن، افرادی که از هوش مصنوعی، استفاده، آن را توسعه یا به‌کار می‌گیرند، می‌توانند بابت خسارات ناشی از مدل‌ها تحت پیگرد قانونی قرار گیرند.

راهکارهای متوقف کردن هوش مصنوعی خطرناک

خطرات هوش مصنوعی

افزون بر این، او به پیشنهادهایی اشاره کرد که توقف سخت‌افزاری را شامل شناسایی محل چیپ‌های هوش مصنوعی و الزام ثبت آن‌ها می‌دانند. همچنین پیشنهاد داد که سخت‌افزارهای هوش مصنوعی در مقیاس صنعتی می‌توانند به چیپ‌هایی مجهز شوند که تنها در صورتی به کار ادامه دهند که هر هفته سه امضا از نهادهای بین‌المللی اصلی دریافت کنند.

بوترین نوشت: “این امضاها می‌توانند مستقل از دستگاه باشند (در صورت نیاز، حتی می‌توانیم الزام کنیم که به عنوان مدرکی بدون افشاگری در بلاک‌چین منتشر شوند)، بنابراین این فرایند به‌صورت همه یا هیچ خواهد بود. هیچ راه عملی برای تأیید ادامه فعالیت یک دستگاه بدون تأیید تمامی دستگاه‌های دیگر وجود نخواهد داشت.”

درنهایت، ایده d/acc که توسط بوترین حمایت می‌شود، از رویکردی محتاطانه برای توسعه فناوری دفاع می‌کند. این موضوع در تضاد با ایده “شتاب‌دهی مؤثر” یا e/acc است که طرفدار تغییرات فناوری بدون محدودیت و کنترل است.

این محتوا مفید بود؟
نظرات کاربران
می خواهم از پاسخ به کامنتم مطلع شوم
اطلاع از
guest

0 دیدکاه های این نوشته
قدیمی ترین ها
جدیدترین ها رای بیشتر
بازخورد درون خطی
مشاهده همه دیدگاه ها
صرافی ارزینجا
ARZINJA
صرافی ارزینجا
ارزینجا یکی از قدیمی‌ترین صرافی‌های ایرانی است که معاملات آسان (OTC) و پیشرفته (P2P) بیشتر از 1000 رمزارز را ممکن کرده است. با ساده‌ترین و سریع‌ترین روش احراز هویت می‌توانید همین حالا عضو ارزینجا شوید و با کمترین کارمزد، معامله و سرمایه‌گذاری در دنیای ارزهای دیجیتال را شروع کنید.
ثبت نام در صرافی ارزینجا
نوشته‌های مرتبط
0
در سریعترین زمان ممکن به شما پاسخ خواهیم دادx