تشبیه هوش مصنوعی و بمب اتم، نگرانیهای تازهای را در ذهن انسانها به وجود آورده است؛ اما آیا این دو واقعاً به یکدیگر شباهت دارند؟
دلایل این شباهت
حتی اگر کسی خیلی از بمب اتمی و سازوکار آن سر درنیاورد، حداقل از سرنوشت مردم هیروشیما و ناکازاکی خبر دارد. هوش مصنوعی هم که دیگر آنقدر سروصدا بهپا کرده است. بعید میدانیم کسی از نگرانیهای حاصل از آن چیزی نشنیده باشد یا حداقل یک بار به آن فکر نکرده باشد.
تا چندی پیش، نگرانیهای حاصل از هوش مصنوعی برای برخی از افراد فقط در نابودی مشاغل خلاصه میشد. اما حالا کار به جایی رسیده است که قدرت تخریب هوش مصنوعی با بمب اتم مقایسه میشود. ترس و نگرانی بیشتری را به جان انسانها میاندازد. هوش مصنوعی با سرعت نگرانکنندهای ظاهر شده و با خطرهای جدی همراه است که بشر برای مواجهه با آنها آمادگی ندارد.
آیا هوش مصنوعی از بمب اتم مخربتر است و میتواند خطری وجودی برای آیندهی بشر باشد؟ در این مقاله، چراییِ مقایسهی هوش مصنوعی و بمب اتم را بررسی میکنیم.
سرچشمه ی این مقایسه
در ماه می رؤسای آزمایشگاههای هوش مصنوعی و برخی از محققان و افراد برجستهای همچون بیل گیتس، در بیانیهای بلندبالا به این موضوع اشاره کردند که کاهش خطر انقراض بهواسطهی هوش مصنوعی باید درکنار سایر خطرهای اجتماعی مانند بیماریهای همهگیر و جنگ هستهای دارای اولویتی جهانی باشد.
این بیانیه را بسیاری از افراد مطرح در این زمینه، ازجمله رهبران OpenAI، گوگل، آنتروپیک و دو تن از بهاصطلاح «پدرخواندههای» هوش مصنوعی، یعنی جفری هینتون و یوشوا بنجیو، امضا کردند.
“هوش مصنوعی میتواند خطری وجودی برای بشر باشد؛ خطری همتراز با جنگ هستهای”
پدرخواندههای
جالب است بدانید که بسیاری از هشدارها دربارهی هوش مصنوعی از سوی ذهنهای درخشانی میآید که در توسعهی آن ایفای نقش کردهاند. آنها هشدار دادهاند که هوش مصنوعی میتواند خطری وجودی برای بشر باشد؛ خطری همتراز با جنگ هستهای.
نظریه Paper Clip Maximizer
یکی از نظریههای معروف در این زمینه «Paper Clip Maximizer» نام دارد که اولینبار نیک بوستروم، فیلسوف آکسفورد، آن را مطرح کرد. فرض کنید از هوش مصنوعی خواستهاید گیرههای کاغذ فراوانی تولید کند.
AI ممکن است آنقدر موضوع را جدی بگیرد که برای یافتن مواد اولیه، کارخانهها را تخریب و تصادفات رانندگی ایجاد کند و درآخر تصمیم بگیرد هرچیزی در جهان ازجمله انسانها را به گیرهی کاغذ تبدیل کند.
هوش مصنوعی در دستیابی به اهداف موفق عمل میکند؛ اما ازآنجاکه لزوماً با ارزشهای اخلاقی سازندگانش همخوانی ندارد، نمیتوان خطرناکبودن آن را نادیده گرفت و اگر بخواهیم خیلی افراطی فکر کنیم، در بدترین حالت، میتواند دربارهی بردگی یا نابودی نژاد بشر نگرانیهایی ایجاد کند.
هوش مصنوعی درمقابل بمب اتم
شباهتهای میان هوش مصنوعی و بمب اتم را نمیتوان نادیده گرفت؛ اما دراینبین، تفاوتهایی نیز وجود دارد. بهطور خلاصه، شباهتها و تفاوتهای این دو را میتوان مانند زیر بیان کرد.
ظرفیت آسیب جمعی
نیازی به توضیح ندارد که سلاحهای هستهای چگونه میتوانند آسیب جمعی را در مقیاسی ایجاد کنند که تابهحال تجربه نکردهایم؛ اما این ظرفیت دربارهی هوش مصنوعی نیازمند توضیح بیشتری است.
سیستمهای هوش مصنوعی پیچیده ظرفیت سوءاستفاده بسیار زیادی دارند. پژوهشگران دانشگاه Carnegie Mellon موفق شدند سیستمهای زبان بزرگ را به سیستم پردازش شیمیایی مصنوعی آموزش دهند و سپس با دستور ساخت گاز کلرین و پیداکردن ترکیبی مناسب، آزمایشگاهی ابری (سرویسی آنلاین که شیمیدانان میتوانند آزمایشهای شیمی فیزیکی را از راه دور انجام دهند) را ایجاد کنند. بهنظر میرسید این سیستم بتواند گاز VX یا سارین و متامفتامین را تولید کند و تنها دلیل صرفنظر از آن، کنترلهای ایمنی داخلی بوده است.
درحالحاضر، بسیاری از اطلاعات موردنیاز برای تولید سلاحهای شیمیایی یا بیولوژیکی برای عموم و مدلسازان دردسترس قرار دارند؛ اما هر شخصی به تخصصهای خاص برای درک و اعمال این اطلاعات نیاز دارد. تفاوت بین دنیایی که افراد عادی با دسترسی به مدلهای زبان بزرگ میتوانند سلاحهای زیستی خطرناکی را ساختاریافته کنند و دنیایی که در آن فقط متخصصها میتوانند این کار را انجام دهند، شبیه تفاوت بین کشورهایی مانند آمریکا و انگلستان است که در یکی اسلحههای نیمهخودکار بزرگ بهطور گسترده دردسترس هستند و در دیگری دسترسی به چنین اسلحههایی غیرممکن است.
بااینحال، اگر کنترل کافی اِعمال نشود، دسترسی گسترده به این سیستمهای هوش مصنوعی مانند دسترسی گسترده به اسلحههای شخصی میتواند به ایجاد دنیایی منتهی شود که افراد عادی با دسترسی به سیستمهای زبان بزرگ، میتوانند سلاحهای بیولوژیکی خطرناکی را تولید و با استفاده از آنها آسیب بزرگی به جامعه وارد کنند.
تفاوت هوش مصنوعی و بمب اتم
طبیعتاً در زندگی روزمرهمان از سلاحهای هستهای استفاده نمیکنیم و بسیاری از ما هرگز کارکردن با آن را تجربه نخواهیم کرد. شکافت هستهای ازطریق انرژی هستهای که حدود ۴ درصد از انرژی جهان را تأمین میکند، زندگی روزمره ما را تحتتأثیر قرار میدهد.
افزونبراین، دقیقاً نمیدانیم که هوش مصنوعی چگونه بر جهان تأثیر میگذارد و کسی نمیتواند با جزئیات بگوید که چه اتفاقی در حال وقوع است. هوش مصنوعی را میتوانیم فناوری همهمنظوره در نظر بگیریم؛ یعنی چیزی مانند برق یا تلگراف یا اینترنت که بهطور گسترده نحوهی عملکرد کسبوکارها در مناطق مختلف را تغییر میدهد و با نوآوریهایی که بخش خاصی را تحتتأثیر قرار میدهند، کاملاً متفاوت است.
درمجموع، انرژی هستهای فناوری بسیار مفیدی است و ممنوعکردن شکافت هستهای طبیعتاً ایدهی بدی خواهد بود. دربارهی هوش مصنوعی باید به این نکته توجه کرد که حتی با درنظرگرفتن تهدیدهای عمدهای که ایجاد میکند، چقدر میتواند مفید واقع شود؛ بنابراین، ممنوعیت آن بهوضوح اجرایی نیست.
بهره برداری آسان از هوش مصنوعی
اغلب کشورها ازجمله بسیاری از کشورهای ثروتمندی که بهراحتی منابع لازم برای ساخت بمب اتمی را دارند، از توسعهی بمب اتمی انصراف دادهاند. زیرا ساخت بمب اتمی اساساً سخت و هزینهبر خواهد بود.
درمقابل، آموزش هوش مصنوعی نیز سخت و پرهزینه است. اما درمقایسهبا بمب اتمی، بعد از ساخت مدلی خاص بهدست شرکتها یا دولت، آسانتر امکان پیگیری و کپیبرداری دارد.
جمع بندی
درواقع، خطری وجودی و ذاتی در استفاده از هوش مصنوعی برای نوع انسان وجود دارد؛ اما این خطر بیشتردرمفهوم فلسفی طبقهبندی میشود و نه آخرالزمانی. هوش مصنوعی در شکل فعلیاش میتواند دیدگاه افراد را دربارهی خود تغییر دهد. همچنین تواناییها و تجربیاتی را تنزل دهد که مردم برای انسانبودن ضروری میدانند.
بهعنوان مثال، چتجیپیتی را در نظر بگیرید. این فناوری در حال حذف نقش نوشتن تکالیف در آموزش عالی است. اگر این امر محقق شود، مربیان یکی از ابزارهای اصلی خود برای آموزش به دانشآموزان را از دست خواهند داد.
هوش مصنوعی دنیا را نابود نخواهد کرد؛ اما پذیرش آن در انواع زمینهها، فرسایش تدریجی برخی از مهارتهای مهم انسان را در پی دارد. درحالحاضر، نگرانی اصلی این است که هرگز نمیدانیم هوش عمومی مصنوعی (AGI) چه زمانی ظاهر میشود. چهبسا AGI بتواند هوش خود را از انسانها پنهان کند و توقف آن برای انسانها دشوار و غیرممکن شود.
بااینحال، این بدانمعنا نیست که توسعهی هوش مصنوعی باید متوقف شود، اتفاقا محققان هوش مصنوعی باید به ایجاد نرمافزار هوش مصنوعی بهتر ادامه دهند.