راهی برای پیروزی بشریت بر هوش مصنوعیِ نظامی وجود ندارد! راهی برای پیروزی بشریت بر هوش مصنوعیِ نظامی وجود ندارد!
نشریه واشنگتن پست در مقالهای به قلم دو تن از کارکنان حوزه هوش مصنوعی، پیرامون این فناوری و تعریف اهداف اصلی آن مینویسد: اساسا طرح این پرسش که: «چه کسی در آینده هوش مصنوعی را کنترل خواهد کرد؟» از اساس غلط است؛ زیرا چالش پیش روی انسان برنده شدن در مسابقات تسلیحاتی هوش مصنوعی نیست. بلکه اطمینان از این است که هوش مصنوعی در خدمت منافع بشریت است یا خیر. این امر مستلزم رویکردی مشارکتی است که از مرزهای ملی فراتر میرود. برای رسیدن به این هدف، ما نیازی به کنترل هوش مصنوعی نداریم، بلکه باید اطمینان حاصل کنیم که توسعه آن با اصول اخلاقی جهانی مطابقت دارد.
این مقاله واشنگتنپست در پاسخ به مقاله «سم آلتمن» مدیرعامل شرکت هوش مصنوعی «اوپنای آی» نوشته شده است. سم آلتمن در مقاله خود به نام «چه کسی در آینده هوش مصنوعی را کنترل خواهد کرد» استدلال میکند که آمریکا به هر قیمتی شده باید تلاش برای پیروزی در این مسابقه تسلیحاتی هوش مصنوعی را تسریع بخشد و ادعا میکند که تسلط یافتن آمریکا بر سیستمهای پیشرفته هوش مصنوعی برای حفظ دموکراسی در جهان بسیار مهم است!
در این جوابیه آمده است: در سال ۲۰۱۷ صدها نفر از متخصصین هوش مصنوعی از جمله سم آلتمن، میثاق نامه (منشور) اصول و مبانی چگونگی مدیریت هوش مصنوعی را امضاء کردند. امضاء کنندگانِ این منشور متعهد به پرهیز از رقابتهای هوش مصنوعی در عرصههای نظامی شدند! اظهارات اخیر سم آلتمن نقضِ میثاق نامهای است که خود او امضاء کرده است. ضمن آنکه بنظر میرسد مدیر عامل «اوپنای آی» مخاطراتِ هوش مصنوعی را برای بشریت فراموش کرده است.
واشنگتن پست در ادامه مینویسد: با افزایشِ نقش هوش مصنوعی در زندگی انسانها، بتدریج رقابتها برای تسلط بر آن شتاب میگیرد در حالیکه هشیاری و احتیاط ایجاب میکند در حوزه هوش مصنوعی بجای رقابت، همکاری مبنا قرار گیرد. نباید فراموش کنیم که همین نگرانیها، متخصصین هوش مصنوعی را به تنظیم منشور و میثاق نامه اصول و مبانی چگونگی مدیریت هوش مصنوعی رهنمون ساخت.
هدف اعلام شده برای استفاده از هوش مصنوعی عبارت است از بهره برداری از شیوه و فناوری نوین برای خدمت به بشریت! در این صورت بشریت از منافع هوش مصنوعی برخوردار خواهد شد، اما متقابلاً اگر هوش مصنوعی بصورتی درست توسعه نیابد آنگاه مخاطراتِ زیادی برای زندگی و معیشت میلیونها نفر انسان ایجاد خواهد کرد. اگر بخواهیم صرفاً چند سناریوی خطرناک را نام ببریم میتوان گفت هوش مصنوعی میتواند در بیوتروریسم، حملات گسترده و فراگیر سایبری یا حتی تشدید تنش و درگیری هستهای استفاده شود. با در نظر گرفتن این مخاطرات، رقابت کردن بر سر رها کردن افسار هوش مصنوعی به نفع هیچ کس نخواهد بود. زیرا چنین رقابتهایی میتواند به اقدامات حاد، تشدید رویاروییها و حتی خطرِ نابودیِ هستهای منجر گردد.
این مقاله در انتها خاطر نشان میکند: شواهد تاریخی نشان میدهد در میانه رقابت تسلیحاتی، شانس کمی برای شکلگیری یک سیستم حکمرانی بین المللی دموکراتیک برای کنترل هوش مصنوعی وجود دارد؛ و اگر هوش مصنوعی عمومی واقعا ظهور کند، احمقانه است که فرض کنیم دولتهای جهان میتوانند آن را کنترل کنند، چه رسد به چند شرکت. سیستمی که در بسیاری از موارد از ما بهتر است، به سرعت در همه چیز بسیار بهتر از ما خواهد شد و میتواند بدون محدودیت خود را بهبود بخشد. چنین سیستمی یک ابزار نیست، بلکه یک گونه باهوش است. بنابراین، شتاب گرفتن فناوری هوش مصنوعی در صورتیکه ما انسانها حفاظِ کافی برای آن درست نکنیم دیگر یک رقابت نیست بلکه در حکم یک خودکشی دسته جمعی خواهد بود. در فقدانِ قوانین و مقررات لازم، نبودِ شاخصهای ایمنی و خلأ نظارت مناسب بر هوش مصنوعی احتمال دارد که هوش مصنوعی منجر به فاجعهای مثلاً در حوزه رادیو اکتیو بشود. بطوریکه بعداً به این نتیجه برسیم که اصلاً بهتر بود از خیر مزایای هوش مصنوعی میگذشتیم! ما باید از حادثه «تری مایل آیلند» آمریکا که به خاطر فقدان اقدامات احتیاطی و آموزش منجر به فروپاشی هستهای شد، درس بگیریم.
Authors: صاحبخبران - جدیدترین و آخرین اخبار ایران و جهان - علمی-فناوری