هوش مصنوعی در مقابل بمب اتم

هوش مصنوعی در مقابل بمب اتم


تشبیه هوش مصنوعی و بمب اتم، نگرانی‌های تازه‌ای را در ذهن انسانها به وجود آورده است؛ اما آیا این دو واقعاً به یکدیگر شباهت دارند؟

دلایل این شباهت

حتی اگر کسی خیلی از بمب‌ اتمی و سازوکار آن سر درنیاورد، حداقل از سرنوشت مردم هیروشیما و ناکازاکی خبر دارد. هوش مصنوعی هم که دیگر آن‌قدر سروصدا به‌پا کرده است. بعید می‌دانیم کسی از نگرانی‌های حاصل از آن چیزی نشنیده باشد یا حداقل یک‌ بار به آن فکر نکرده باشد.
تا چندی پیش، نگرانی‌های حاصل از هوش مصنوعی برای برخی از افراد فقط در نابودی مشاغل خلاصه می‌شد. اما حالا کار به جایی رسیده است که قدرت تخریب هوش مصنوعی با بمب‌ اتم مقایسه می‌شود. ترس‌ و نگرانی‌ بیشتری را به جان انسان‌ها می‌اندازد. هوش مصنوعی با سرعت نگران‌کننده‌ای ظاهر شده و با خطرهای جدی همراه است که بشر برای مواجهه با آن‌ها آمادگی ندارد.
آیا هوش مصنوعی از بمب‌ اتم مخرب‌تر است و می‌تواند خطری وجودی برای آینده‌ی بشر باشد؟ در این مقاله، چراییِ مقایسه‌ی هوش مصنوعی و بمب اتم را بررسی می‌کنیم.

سرچشمه ی این مقایسه

سرچشمه ی این مقایسه
سرچشمه ی این مقایسه

در ماه می رؤسای آزمایشگاه‌های هوش مصنوعی و برخی از محققان و افراد برجسته‌ای همچون بیل گیتس، در بیانیه‌ای بلندبالا به این موضوع اشاره کردند که کاهش خطر انقراض به‌واسطه‌ی هوش مصنوعی باید درکنار سایر خطرهای اجتماعی مانند بیماری‌های همه‌گیر و جنگ هسته‌ای دارای اولویتی جهانی باشد.
این بیانیه را بسیاری از افراد مطرح در این زمینه، از‌جمله رهبران OpenAI، گوگل، آنتروپیک و دو تن از به‌اصطلاح «پدرخوانده‌های» هوش مصنوعی، یعنی جفری هینتون و یوشوا بنجیو، امضا کردند.

“هوش مصنوعی می‌تواند خطری وجودی برای بشر باشد؛ خطری هم‌تراز با جنگ هسته‌ای”

پدرخوانده‌های

جالب است بدانید که بسیاری از هشدارها درباره‌ی هوش مصنوعی از سوی ذهن‌های درخشانی می‌آید که در توسعه‌ی آن ایفای نقش کرده‌اند. آن‌ها هشدار داده‌اند که هوش مصنوعی می‌تواند خطری وجودی برای بشر باشد؛ خطری هم‌تراز با جنگ هسته‌ای.

نظریه Paper Clip Maximizer

نظریه Paper Clip Maximizer
نظریه Paper Clip Maximizer

یکی از نظریه‌های معروف در این زمینه «Paper Clip Maximizer» نام دارد که اولین‌بار نیک بوستروم، فیلسوف آکسفورد، آن را مطرح کرد. فرض کنید از هوش مصنوعی خواسته‌اید گیره‌های کاغذ فراوانی تولید کند.
AI ممکن است آن‌قدر موضوع را جدی بگیرد که برای یافتن مواد اولیه، کارخانه‌ها را تخریب و تصادفات رانندگی ایجاد کند و درآخر تصمیم بگیرد هرچیزی در جهان از‌جمله انسان‌ها را به گیره‌ی کاغذ تبدیل کند.
هوش مصنوعی در دستیابی به اهداف موفق عمل می‌کند؛ اما ازآن‌جاکه لزوماً با ارزش‌های اخلاقی سازندگانش هم‌خوانی ندارد، نمی‌توان خطرناک‌بودن آن را نادیده گرفت و اگر بخواهیم خیلی افراطی فکر کنیم، در بدترین حالت، می‌تواند درباره‌ی بردگی یا نابودی نژاد بشر نگرانی‌هایی ایجاد کند.

هوش مصنوعی در‌مقابل بمب اتم

شباهت‌های میان هوش مصنوعی و بمب اتم را نمی‌توان نادیده گرفت؛ اما دراین‌بین، تفاوت‌هایی نیز وجود دارد. به‌طور خلاصه، شباهت‌ها و تفاوت‌های این دو را می‌توان مانند زیر بیان کرد.

ظرفیت آسیب جمعی

ظرفیت آسیب جمعی
ظرفیت آسیب جمعی

نیازی به توضیح ندارد که سلاح‌های هسته‌ای چگونه می‌توانند آسیب جمعی را در مقیاسی ایجاد کنند که تا‌به‌حال تجربه نکرده‌ایم؛ اما این ظرفیت درباره‌ی هوش مصنوعی نیازمند توضیح بیشتری است.
سیستم‌های هوش مصنوعی پیچیده ظرفیت سوء‌استفاده بسیار زیادی دارند. پژوهشگران دانشگاه Carnegie Mellon موفق شدند سیستم‌های زبان بزرگ را به سیستم پردازش شیمیایی مصنوعی آموزش دهند و سپس با دستور ساخت گاز کلرین و پیدا‌کردن ترکیبی مناسب، آزمایشگاهی ابری (سرویسی آنلاین که شیمی‌دانان می‌توانند آزمایش‌های شیمی فیزیکی را از راه دور انجام دهند) را ایجاد کنند. به‌نظر می‌رسید این سیستم بتواند گاز VX یا سارین و متامفتامین را تولید کند و تنها دلیل صرف‌نظر از آن، کنترل‌های ایمنی داخلی بوده است.


درحال‌حاضر، بسیاری از اطلاعات موردنیاز برای تولید سلاح‌های شیمیایی یا بیولوژیکی برای عموم و مدل‌سازان در‌دسترس قرار دارند؛ اما هر شخصی به تخصص‌های خاص برای درک و اعمال این اطلاعات نیاز دارد. تفاوت بین دنیایی که افراد عادی با دسترسی به مدل‌های زبان بزرگ می‌توانند سلاح‌های زیستی خطرناکی را ساختاریافته کنند و دنیایی که در آن فقط متخصص‌ها می‌توانند این کار را انجام دهند، شبیه تفاوت بین کشورهایی مانند آمریکا و انگلستان است که در یکی اسلحه‌های نیمه‌خودکار بزرگ به‌طور گسترده دردسترس هستند و در دیگری دسترسی به چنین اسلحه‌هایی غیرممکن است.

بااین‌حال، اگر کنترل کافی اِعمال نشود، دسترسی گسترده به این سیستم‌های هوش مصنوعی مانند دسترسی گسترده به اسلحه‌های شخصی می‌تواند به ایجاد دنیایی منتهی شود که افراد عادی با دسترسی به سیستم‌های زبان بزرگ، می‌توانند سلاح‌های بیولوژیکی خطرناکی را تولید و با استفاده از آن‌ها آسیب بزرگی به جامعه وارد کنند.

تفاوت هوش مصنوعی و بمب اتم

تفاوت هوش مصنوعی و بمب اتم
تفاوت هوش مصنوعی و بمب اتم

طبیعتاً در زندگی روزمره‌مان از سلاح‌های هسته‌ای استفاده نمی‌کنیم و بسیاری از ما هرگز کارکردن با آن را تجربه نخواهیم کرد. شکافت هسته‌ای از‌طریق انرژی هسته‌ای که حدود ۴ درصد از انرژی جهان را تأمین می‌کند، زندگی روزمره ما را تحت‌تأثیر قرار می‌دهد.
افزون‌براین، دقیقاً نمی‌دانیم که هوش مصنوعی چگونه بر جهان تأثیر می‌گذارد و کسی نمی‌تواند با جزئیات بگوید که چه اتفاقی در حال وقوع است. هوش مصنوعی را می‌توانیم فناوری همه‌منظوره در نظر بگیریم؛ یعنی چیزی مانند برق یا تلگراف یا اینترنت که به‌طور گسترده نحوه‌ی عملکرد کسب‌وکارها در مناطق مختلف را تغییر می‌دهد و با نوآوری‌هایی که بخش خاصی را تحت‌تأثیر قرار می‌دهند، کاملاً متفاوت است.

در‌مجموع، انرژی هسته‌ای فناوری بسیار مفیدی است و ممنوع‌کردن شکافت هسته‌ای طبیعتاً ایده‌ی بدی خواهد بود. درباره‌ی هوش مصنوعی باید به این نکته توجه کرد که حتی با درنظرگرفتن تهدیدهای عمده‌ای که ایجاد می‌کند، چقدر می‌تواند مفید واقع شود؛ بنابراین، ممنوعیت آن به‌وضوح اجرایی نیست.

بهره برداری آسان از هوش مصنوعی

اغلب کشورها از‌جمله بسیاری از کشورهای ثروتمندی که به‌راحتی منابع لازم برای ساخت بمب اتمی را دارند، از توسعه‌ی بمب اتمی انصراف داده‌اند. زیرا ساخت بمب اتمی اساساً سخت و هزینه‌بر خواهد بود.

در‌مقابل، آموزش هوش مصنوعی نیز سخت و پرهزینه است. اما درمقایسه‌با بمب اتمی، بعد از ساخت مدلی خاص به‌دست شرکت‌ها یا دولت، آسان‌تر امکان پیگیری و کپی‌برداری دارد.

جمع بندی

در‌واقع، خطری وجودی و ذاتی در استفاده از هوش مصنوعی برای نوع انسان وجود دارد؛ اما این خطر بیشتردرمفهوم فلسفی طبقه‌بندی می‌شود و نه آخرالزمانی. هوش مصنوعی در شکل فعلی‌اش می‌تواند دیدگاه افراد را درباره‌ی خود تغییر دهد. همچنین توانایی‌ها و تجربیاتی را تنزل دهد که مردم برای انسان‌بودن ضروری می‌دانند.
به‌عنوان مثال، چت‌جی‌پی‌تی را در نظر بگیرید. این فناوری در حال حذف نقش نوشتن تکالیف در آموزش عالی است. اگر این امر محقق شود، مربیان یکی از ابزارهای اصلی خود برای آموزش به دانش‌آموزان را از دست خواهند داد.


هوش مصنوعی دنیا را نابود نخواهد کرد؛ اما پذیرش آن در انواع زمینه‌ها، فرسایش تدریجی برخی از مهارت‌های مهم انسان را در پی دارد. درحال‌حاضر، نگرانی اصلی این است که هرگز نمی‌دانیم هوش عمومی مصنوعی (AGI) چه زمانی ظاهر می‌شود. چه‌بسا AGI بتواند هوش خود را از انسان‌ها پنهان کند و توقف آن برای انسان‌ها دشوار و غیرممکن شود.
بااین‌حال، این بدان‌معنا نیست که توسعه‌ی هوش مصنوعی باید متوقف شود، اتفاقا محققان هوش مصنوعی باید به ایجاد نرم‌افزار هوش مصنوعی بهتر ادامه دهند.

درباره فراموشی دیجیتال بخوانید

Comments are disabled.