خبر

هشدارهای ترسناک مجله تایم درباره عواقب توسعه ابرهوش مصنوعی

بادبانسپیده کلارستاقی شرکت‌های فناوری با شتابی افزایشی میلیاردها دلار برای دستیابی به هوش مصنوعی هزینه می‌کنند. اما زمانی که موفق به توسعه ماشین‌هایی شویم که در تمام حوزه‌ها به طور قابل توجهی از ما شایسته‌تر باشند، به احتمال زیاد تحت انقیاد خود این ماشین‌های فوق هوشمند خواهیم بود، زیرا در حال حاضر هیچ کشور، هیچ شرکت و هیچ شخصی نمی‌داند چگونه آنها را مهار و کنترل کند. به گزارش بادبان به نقل از مقاله‌ای در مجله تایم در تئوری، یک هوش مصنوعی فوق هوشمند اهداف خودش را دنبال می‌کند و اگر این اهداف با حفظ حیات انسان ناسازگار باشند، ما نابود خواهیم شد.

بدتر از همه این که توسعه‌دهندگان هوش مصنوعی نمی‌دانند که سیستم‌های قدرتمند هوش مصنوعی که هم‌اکنون داریم چگونه کار می‌کنند. برخلاف پل‌ها یا نیروگاه‌ها که وفق مشخصات دقیق انسانی طراحی شده‌اند، سیستم‌های هوش مصنوعی امروزی از مجموعه داده‌های گسترده‌ و فرآیندهایی رشد می‌یابند که سازندگان آنها، خودشان نمی‌توانند تفسیر کنند. حتی داریو آمودی، مدیرعامل آنتروپیک، اذعان می‌کند که ما فقط «۳٪ از نحوه کار آنها را درک می‌کنیم».

هشدارهای ترسناک مجله تایم درباره عواقب توسعه ابرهوش مصنوعی

با وجود این خطر، هوش مصنوعی فوق هوشمند همچنان هدف شرکت‌های پیشرو هوش مصنوعی است: OpenAl، آنتروپیک، گوگل دیپ‌مایند، متا، xAI، دیپ-سیک و غیره. با توجه به ارزش سرسام‌آور سهام این شرکت‌ها، نباید انتظار داشته باشیم که خودشان تصمیم به توقف توسعه این فناوری بگیرند. ائتلافی از رهبران علمی، مذهبی و سیاسی خواستار ممنوعیت جهانی توسعه ابرهوش مصنوعی هستند. نویسنده این مطلب که خود از فعالان جنبش محدودسازی هوش مصنوعی است، یکی از امضاکنندگان اولیه این طومار بوده است، در کنار برندگان جایزه نوبل مانند جفری هینتون؛ دانشمند پراستناد جهان در حوزه هوش مصنوعی، یوشوا بنگیو؛ مشاور سابق رئیس‌جمهور دونالد ترامپ، استیون بنن؛ رئیس سابق ستاد مشترک ارتش، مایک مولن و شاهزاده هری و مگان، دوشس ساسکس.

دولت‌های سراسر جهان باید قبل از اینکه خیلی دیر شود، وارد عمل شوند. با این حال، وضعیت بین‌المللی دلگرم‌کننده نیست. ما در دورانی از تنش فزاینده ژئوپلیتیکی زندگی می‌کنیم. کشورها در زمانی که توسعه و استقرار سیستم‌های خطرناک هوش مصنوعی کمتر از افتتاح یک رستوران جدید یا ساخت یک خانه تحت نظارت است، برای سرمایه‌گذاری میلیاردها دلار در مراکز داده جهت تقویت هوش مصنوعی عجله دارند.

در این شرایط، آیا ممنوعیت بین‌المللی توسعه ابرهوش مصنوعی اصلاً امکان‌پذیر است؟ بله، زیرا ما قبلاً به چنین ممنوعیت‌های جهانی دست یافته‌ایم. در سال ۱۹۸۵، جهان متوجه وجود سوراخی در لایه اوزون بالای قطب جنوب شد. مقصر کلروفلوئوروکربن (CFC)‌ یعنی مواد شیمیایی صنعتی رایج در همه جا بود. اگر کاری انجام نمی‌شد، این سوراخ به رشد خود ادامه می‌داد و میلیون‌ها نفر به دلیل عدم محافظت در برابر اشعه ماوراء بنفش به سرطان پوست مبتلا می‌شدند یا بینایی خود را ازدست می‌دادند.

در عوض، میلیون‌ها نفر برای ممنوعیت CFCها متحد شدند. دانشمندان با تصاویر ماهواره‌ای رنگی و بحث‌های روشن در مورد پیامدهای سلامتی، این تهدید را ملموس کردند. سازمان‌های غیردولتی، تحریم برندهای بزرگ را سازماندهی کردند و شهروندان نگران را به نوشتن نامه‌های اعتراضی ترغیب و هدایت کردند. مدارس در سراسر جهان برنامه‌های آموزشی اجرا کردند و سازمان ملل متحد از کمپین‌های آگاهی‌بخشی عمومی حمایت کرد. در سال ۱۹۸۷، تنها دو سال پس از علنی شدن سوراخ اوزون، تمام کشورها پروتکل مونترال را امضا کردند. این پروتکل که در طول جنگ سرد امضا شد، نشان می‌دهد که می‌توان به سرعت به توافق بین‌المللی قاطعی در میان تنش‌های ژئوپلیتیکی دست یافت.

یکی از عوامل کلیدی این بود که سوراخ اوزون تقریباً همه افراد جهان را در معرض خطر قرار داده بود. ابرهوش مصنوعی نیز یک تهدید جهانی مشابه است: از دست دادن کنترل هوش مصنوعی به این معنی است که حتی کسانی که آن را توسعه می‌دهند نیز از خطرات آن در امان نخواهند بود. خطر انقراض این پتانسیل را دارد که از هر تفرقه‌ای عبور کند. این می‌تواند مردم را در قالب احزاب سیاسی، مذاهب، ملت‌ها و ایدئولوژی‌ها متحد کند. هیچ کس نمی‌خواهد زندگی، خانواده و دنیایش نابود شود.

مانند سوراخ لایه اوزون، نگرانی باید به مشارکت مدنی تبدیل شود و یک جنبش جهانی ایجاد کند که با دولت‌ها همکاری کند تا ممنوعیت هوش مصنوعی را به واقعیت تبدیل کند. متأسفانه، اکثر قانون‌گذاران هنوز از تهدید ابرهوش مصنوعی یا فوریت آن اطلاعی ندارند و همزمان شرکت‌های هوش مصنوعی نیز صدها میلیون دلار برای سرکوب تلاش‌ها به منظور تنظیم مقررات حاکم بر این فناوری هزینه می‌کنند.

بهترین عامل در مقابله با این لابی‌گری عظیم این است که قانون‌گذاران از موکلان خود بشنوند که واقعاً در مورد ابرهوش مصنوعی چه فکر می‌کنند. اغلب، قانون‌گذاران متوجه می‌شوند که اکثر موکلانشان می‌خواهند که آنها به هوش برتر نه و به آینده‌ای که بشریت در آن زنده می‌ماند و رشد می‌کند، بله بگویند. ما می‌دانیم که می‌توان جنبشی برای جلوگیری از این سرنوشت ایجاد کرد. سوال این است: آیا می‌توانیم آن را به اندازه کافی سریع به نتیجه برسانیم؟


🔥 ممکن است این مطلب نیز برای شما جالب باشد: 👈خطر هوش مصنوعی و آینده ادبیات


نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا