بادبان – سپیده کلارستاقی – شرکتهای فناوری با شتابی افزایشی میلیاردها دلار برای دستیابی به هوش مصنوعی هزینه میکنند. اما زمانی که موفق به توسعه ماشینهایی شویم که در تمام حوزهها به طور قابل توجهی از ما شایستهتر باشند، به احتمال زیاد تحت انقیاد خود این ماشینهای فوق هوشمند خواهیم بود، زیرا در حال حاضر هیچ کشور، هیچ شرکت و هیچ شخصی نمیداند چگونه آنها را مهار و کنترل کند. به گزارش بادبان به نقل از مقالهای در مجله تایم در تئوری، یک هوش مصنوعی فوق هوشمند اهداف خودش را دنبال میکند و اگر این اهداف با حفظ حیات انسان ناسازگار باشند، ما نابود خواهیم شد.
بدتر از همه این که توسعهدهندگان هوش مصنوعی نمیدانند که سیستمهای قدرتمند هوش مصنوعی که هماکنون داریم چگونه کار میکنند. برخلاف پلها یا نیروگاهها که وفق مشخصات دقیق انسانی طراحی شدهاند، سیستمهای هوش مصنوعی امروزی از مجموعه دادههای گسترده و فرآیندهایی رشد مییابند که سازندگان آنها، خودشان نمیتوانند تفسیر کنند. حتی داریو آمودی، مدیرعامل آنتروپیک، اذعان میکند که ما فقط «۳٪ از نحوه کار آنها را درک میکنیم».
با وجود این خطر، هوش مصنوعی فوق هوشمند همچنان هدف شرکتهای پیشرو هوش مصنوعی است: OpenAl، آنتروپیک، گوگل دیپمایند، متا، xAI، دیپ-سیک و غیره. با توجه به ارزش سرسامآور سهام این شرکتها، نباید انتظار داشته باشیم که خودشان تصمیم به توقف توسعه این فناوری بگیرند. ائتلافی از رهبران علمی، مذهبی و سیاسی خواستار ممنوعیت جهانی توسعه ابرهوش مصنوعی هستند. نویسنده این مطلب که خود از فعالان جنبش محدودسازی هوش مصنوعی است، یکی از امضاکنندگان اولیه این طومار بوده است، در کنار برندگان جایزه نوبل مانند جفری هینتون؛ دانشمند پراستناد جهان در حوزه هوش مصنوعی، یوشوا بنگیو؛ مشاور سابق رئیسجمهور دونالد ترامپ، استیون بنن؛ رئیس سابق ستاد مشترک ارتش، مایک مولن و شاهزاده هری و مگان، دوشس ساسکس.
دولتهای سراسر جهان باید قبل از اینکه خیلی دیر شود، وارد عمل شوند. با این حال، وضعیت بینالمللی دلگرمکننده نیست. ما در دورانی از تنش فزاینده ژئوپلیتیکی زندگی میکنیم. کشورها در زمانی که توسعه و استقرار سیستمهای خطرناک هوش مصنوعی کمتر از افتتاح یک رستوران جدید یا ساخت یک خانه تحت نظارت است، برای سرمایهگذاری میلیاردها دلار در مراکز داده جهت تقویت هوش مصنوعی عجله دارند.
در این شرایط، آیا ممنوعیت بینالمللی توسعه ابرهوش مصنوعی اصلاً امکانپذیر است؟ بله، زیرا ما قبلاً به چنین ممنوعیتهای جهانی دست یافتهایم. در سال ۱۹۸۵، جهان متوجه وجود سوراخی در لایه اوزون بالای قطب جنوب شد. مقصر کلروفلوئوروکربن (CFC) یعنی مواد شیمیایی صنعتی رایج در همه جا بود. اگر کاری انجام نمیشد، این سوراخ به رشد خود ادامه میداد و میلیونها نفر به دلیل عدم محافظت در برابر اشعه ماوراء بنفش به سرطان پوست مبتلا میشدند یا بینایی خود را ازدست میدادند.
در عوض، میلیونها نفر برای ممنوعیت CFCها متحد شدند. دانشمندان با تصاویر ماهوارهای رنگی و بحثهای روشن در مورد پیامدهای سلامتی، این تهدید را ملموس کردند. سازمانهای غیردولتی، تحریم برندهای بزرگ را سازماندهی کردند و شهروندان نگران را به نوشتن نامههای اعتراضی ترغیب و هدایت کردند. مدارس در سراسر جهان برنامههای آموزشی اجرا کردند و سازمان ملل متحد از کمپینهای آگاهیبخشی عمومی حمایت کرد. در سال ۱۹۸۷، تنها دو سال پس از علنی شدن سوراخ اوزون، تمام کشورها پروتکل مونترال را امضا کردند. این پروتکل که در طول جنگ سرد امضا شد، نشان میدهد که میتوان به سرعت به توافق بینالمللی قاطعی در میان تنشهای ژئوپلیتیکی دست یافت.
یکی از عوامل کلیدی این بود که سوراخ اوزون تقریباً همه افراد جهان را در معرض خطر قرار داده بود. ابرهوش مصنوعی نیز یک تهدید جهانی مشابه است: از دست دادن کنترل هوش مصنوعی به این معنی است که حتی کسانی که آن را توسعه میدهند نیز از خطرات آن در امان نخواهند بود. خطر انقراض این پتانسیل را دارد که از هر تفرقهای عبور کند. این میتواند مردم را در قالب احزاب سیاسی، مذاهب، ملتها و ایدئولوژیها متحد کند. هیچ کس نمیخواهد زندگی، خانواده و دنیایش نابود شود.
مانند سوراخ لایه اوزون، نگرانی باید به مشارکت مدنی تبدیل شود و یک جنبش جهانی ایجاد کند که با دولتها همکاری کند تا ممنوعیت هوش مصنوعی را به واقعیت تبدیل کند. متأسفانه، اکثر قانونگذاران هنوز از تهدید ابرهوش مصنوعی یا فوریت آن اطلاعی ندارند و همزمان شرکتهای هوش مصنوعی نیز صدها میلیون دلار برای سرکوب تلاشها به منظور تنظیم مقررات حاکم بر این فناوری هزینه میکنند.
بهترین عامل در مقابله با این لابیگری عظیم این است که قانونگذاران از موکلان خود بشنوند که واقعاً در مورد ابرهوش مصنوعی چه فکر میکنند. اغلب، قانونگذاران متوجه میشوند که اکثر موکلانشان میخواهند که آنها به هوش برتر نه و به آیندهای که بشریت در آن زنده میماند و رشد میکند، بله بگویند. ما میدانیم که میتوان جنبشی برای جلوگیری از این سرنوشت ایجاد کرد. سوال این است: آیا میتوانیم آن را به اندازه کافی سریع به نتیجه برسانیم؟
🔥 ممکن است این مطلب نیز برای شما جالب باشد: 👈خطر هوش مصنوعی و آینده ادبیات




