انسان با قدرت تفکر و استدلال و با توجه به دلایل روحی و روانی و البته اخلاقیات تصمیم میگیرد. درست یا غلط فرقی نمیکند، به هر حال تصمیم میگیرد. روباتها هم باید در شرایط پیچیده، طوری برنامهریزی شوند که بهترین تصمیم را بگیرند و یا حداقل تصمیمی بگیرند که بهتر از انفعال باشد. اما چطور؟ در ادامه نگاهی به برخی مطالعات در این عرصه میاندازیم.
داستان کوتاه "طفره" به قلم نویسندهی مشهور داستانهای علمی-تخیلی، آیزاک آسیموف، با دو دانشمند مستقر در سیارهی عطارد شروع میشود. آنها متوجه شدهاند که سوخت مورد نیاز پایگاه انسانی رو به اتمام است. در شرایط پیش آمده، روباتی به نام Speedy را برای جستوجوی سوخت اعزام میکنند. اسپیدی همانطور که از نام آن پیداست، روبات سریعی است ولیکن پس از 5 ساعت باز میگردد و در حالی که به دور خود میچرخد، حرفهای بیمعنی تحویل پاول و داناوان میدهد.
ایزاک آسیموف بارها در کتب مختلف خود که روباتها در آن حضور دارند از سه قانون وضع شده برای روباتها صحبت میکند. شاید کتاب معروف انسان دو قرنی را خواندهاید و یا شاید در کتب دیگر با سه قانون جالب آسیموف مواجه شده باشید. به هر حال سه قانون بزرگ آسیموف این است:
- یک روبات نباید به انسان آسیب برساند؛ همچنین نباید در برابر اتفاقاتی که ممکن است منجربه مرگ یک انسان شود، اهمال و سهل انگاری کند.
- یک روبات باید دستوراتی که انسانها به او میدهند را اطاعت کند، به جز دستوراتی که اجرای آن به نقض قانون اول میانجامد.
- یک روبات باید تا جایی که قانون اول یا دوم نقض نمیشود، از خود محافظت کند.
سه قانون کاملاً روشن روباتها، به گیج شدن اسپیدی منجر شده چرا که از طرفی طبق قانون سوم باید از خود محافظت کند و از طرف دیگر قانون دوم به او میگوید دستور را اطاعت کن. اسپیدی در تضادی اسیر شده که راهی برای حل آن پیدا نمیکند و این آغاز یک بحران روحی است.
با ورود روباتها به دنیای واقعی، مسألهی سیستم اخلاقی اهمیت بیشتری پیدا میکند
آسیموف در تخیلات خویش، سال 2015 را به عنون تاریخی که اتفاقات در آن رخ داده انتخاب کرده است که به نظر کمی زود میرسد! هنوز انسان به سیارات نزدیک هم اشراف پیدا نکرده، حال اینکه عطارد، نزدیکترین همسایهی خورشید و سطح داغش موضوعی پیچیدهتر است. اما چند سالی است که روباتهای ساده برای کاربردهای خانگی معرفی میشوند؛ روباتهای نظامی هم به زودی در کنار سربازها دیده خواهند شد و از همه جالبتر خودروهای بدون راننده است که در زومیت به آن اشاره کردیم. قرار است روباتهایی برای کار در کنار انسانها در کارخانهها روانهی بازار شوند.
تمام این موارد به ما یادآوری میکنند که به زودی با مشکل روحی روباتها مواجه میشویم. این موضوع به ویژه در مورد خودروهای خودران روشن است؛ خودرو باید در حوادث چه عکسالعملی نشان دهد؟ آیا بهتر است کاری نکند و 5 انسان در تصادف کشته شوند و یا بهتر است با انحراف از مسیر، جان 5 نفر را نجات دهد ولیکن رانندهی خودرو کشته شود؟
پاسخ درستی برای این گونه سوالات وجود ندارد و حتی اگر وجود داشته باشد هم بسیاری از دانشمندان و محققین عرصهی روباتیکس بر این باورند که پیشبینی هر یک از سناریوهای احتمالی و برنامهریزی روبات برای واکنش به هر مورد، در عمل کاربردی نیست.
پروفسور Matthias Scheutz یکی از متخصصین علوم کامپیوتر از دانشگاه Tuffs میگوید:
تقریباً غیرممکن است که بتوان سیستمی پیچیده از گزارههای برنامهنویسی مثل "اگر، آنگاه و در غیر این صورت" را برای پوشش تمام اتفاقات ممکن نوشت. موضوع این نیست که نوشتن چنین برنامهای بسیار مشکل است، نکته این است که پیشبینی تمام اتفاقات و موقعیتها احتمالی و لیست کردنشان بسیار پیچیده است.
روش جدید استفاده از منطق و دلایل است، قرار نیست قوانین از پیش نوشته شده اجرا شوند
Scheutz به جای این کار در تلاش است مغز متفکر روبات را شبیه به انسانها طراحی کند، مغزی که دلیل میآورد و تصمیم اخلاقی میگیرد. تیم او اخیراً بودجهای 7.5 میلیون دلار از دفتر تحقیقات نیروی دریایی یا ONR دریافت کرده است و روی موضوع شناخت و تحلیل افکار انسان در هنگامی که یک تصمیم اخلاقی میگیرد، مشغول به کار است. محققین در ادامه میخواهند همین روش تصمیمگیری را در روباتها شبیهسازی کنند.
پس از 5 سال کار روی این پروژه، منتظر نمایشی از روباتی که تصمیم میگیرد هستیم. یک مثال ساده، روبات پزشک است که دستور دارد داروهای فوریتی را به بیمارستان برساند تا جان انسانها را نجات دهد. در راه با یک سرباز روبرو میشود که به سختی مجروح شده است. آیا باید مأموریت اصلی خود را فراموش کند و به سرباز کمک کند؟
اهمیت تصمیمی که روبات میگیرد کمتر از توانایی تصمیمگیری و ارایهی دلایل مختلف است. روبات برای تصمیمگیری باید عوامل مختلف را سبک و سنگین کند و به نتیجه برسد؛ پس از تصمیمگیری هم باید در مورد واقعیتها توضیح دهد.
Scheutz میگوید روباتهایی که میبینیم، روز به روز پیچیدهتر و طبیعیتر و نیز خودکارتر میشود. برای ما بسیار مهم است که این مطالعات را شروع کنیم. قطعاً نمیخواهیم جامعهی آیندهی ما مملو از روباتهایی شود که نسبت به تصمیمات اخلاقی دشوار، حساس و ناتوان باشند.
روش Scheutz، تنها روش جدید برای تصمیمگیری روباتها نیست. Roh Arkin یکی از اخلاقگرایان مشهور است که در موسسهی تکنولوژیها در جورجیا با نظامیان همکاری میکند. او قوانینی شبیه به آیزاک آسیموف برای کنترل رفتار روباتها نوشته است و نام گاورنور اخلاقی یا به عبارتی دستگاه خودکار کنترل اخلاقی بر آن نهاده است. البته در مورد اینکه او اولین کسی است که چنین قوانینی نوشته بحث زیادی وجود دارد اما به هر حال راهی برای کنترل رفتار روباتها در شرایط مختلف است.
آرکین به شکلگیری اخلاق در نوزادان پرداخته است، چیزی که شاید در طراحی روبات هم قابل استفاده باشد.
آرکین و تیمش برای دریافت بودجه از ONR، روش جدید خود را به شکل طرح پیشنهادی ارایه کردهاند. آرکین در پیشبرد پروژهی خود برخلاف Scheutz که به روانشناسی افراد پرداخته، شکلگیری اخلاق در نوزادان را بررسی میکند. پروژهی آرکین در نهایت برای رسیدن به مرحلهایست که در معماری Soar به کار گرفته شود. Soar یکی از سیستمهای شناختی معروف برای روباتهایی است که با هدف حل مسأله و یافتن اهداف طراحی میشوند. آرکین در دریافت بودجه موفق نبوده ولیکن هنوز به دنبال کردن بخشهایی از طرح پیشنهادی خود امیدوار است. متأسفانه سرمایهگذاری روی مسألهی اخلاقی روباتها اوضاع خوبی ندارد.
شاید روباتها به مرحلهای برسند که سریعتر از انسان تصمیم گرفته و با تصمیم بهتر، جان افراد بیشتری را نجات دهند
این امید وجود دارد که روباتها بالاخره به مرحلهای برسند که حتی سریعتر از انسان، محاسبات اخلاقی را انجام داده و تصمیم بهتر را اتخاذ کنند. یک راننده در تصادف خودرو که شاید در کسری از ثانیه اتفاق بیافتند، قادر به محاسبه و بررسی خطرات بالقوهای که ممکن است موجب از دست رفتن جان انسانها شود، نیست.
چالش دیگری که قبل از تصمیمگیری اخلاقی در مورد روباتها وجود دارد، جمعآوری اطلاعات از محیط پیرامون است. روبات در محاسبات خود به این اطلاعات نیاز دارد. اطلاعاتی مثل اینکه چند نفر در صحنه حضور دارند و هر یک چه نقشی در حادثه بازی میکنند. روباتهای امروزی از نظر ادراکی در سطح بالایی نیستند. طراحی روباتی که در میدان جنگ، سربازان خودی را از دشمن تشخیص دهد مشکل است، یا مثلاً روباتی که در حوادث قرار است علاوه بر وضعیت جسمانی به سلامت روحی سربازان هم بپردازد و به آنها کمک کند، روبات کاملاً پیچیدهایست.
هنوز نمیتوان گفت که آیا ONR و تلاشهایی که برای طراحی سیستم استدلال اخلاقی میکند، عملی خواهد شد یا نه. ممکن است در نهایت به این نتیجه برسیم که اگر روباتها بنابر مجموعهای از دستورات اولویتبندی شده عمل کنند بهتر است.
اما داستان کوتاه آسیموف در نهایت چطور تمام شد؟ دو دانشمند در نهایت توانستند روبات اسپیدی را از حلقهی محاسباتی که در آن به دام افتاده بود خارج کنند. آنها اولین و البته مهمترین قانون روباتیکس را یادآوری کردند: نباید به انسانی آسیب برسد، چه مستقیم و چه به صورت غیر مستقیم با اهمال و دست روی دست گذاشتن. یکی از دانشمندان خود را در معرض نور داغ و کشندهی خورشید قرار داد تا جایی که اسپیدی از ترس و وحشت خود بیرون آمد و به نجات وی شتافت. روبات شرمنده شده و عذرخواهی کرد. به هر حال در برنامهنویسی برای یک روبات، هویتی مثل بردگان به وی داده میشود. آرکین میگوید اینکه تشخیص دهیم چه چیزی درست است و چه چیزی غلط، کار مشکلی است. برای یک روبات هم همین طور است و شاید معذرتخواهی بیمورد باشد.
نظر شما در مورد تصمیمگیری ماشینی روباتها چیست؟ آیا ممکن است نتیجه دهد و روباتهای جالب و هوشمند معرفی شوند یا همهی کارهای تحقیقاتی، علیرغم ارزشمند بودن خود، در حد یک خیال باطل هستند و به نتیجه نمیرسند؟
ادامه مطلب http://www.zoomit.ir/articles/etc/11684-challenge-robots-morality-decision