پنج شنبه, 15 خرداد 1393 06:37

درست یا غلط، مسأله این نیست، مسأله این که روبات چگونه تصمیم بگیرد؟

نوشته شده توسط  admin
این مورد را ارزیابی کنید
(0 رای‌ها)
درست یا غلط، مسأله این نیست، مسأله این که روبات چگونه تصمیم بگیرد؟

 انسان با قدرت تفکر و استدلال و با توجه به دلایل روحی و روانی و البته اخلاقیات تصمیم می‌گیرد. درست یا غلط فرقی نمی‌کند، به هر حال تصمیم می‌گیرد. روبات‌ها هم باید در شرایط پیچیده، طوری برنامه‌ریزی شوند که بهترین تصمیم را بگیرند و یا حداقل تصمیمی بگیرند که بهتر از انفعال باشد. اما چطور؟ در ادامه نگاهی به برخی مطالعات در این عرصه می‌اندازیم.

داستان کوت

...
درست یا غلط، مسأله این نیست، مسأله این که روبات چگونه تصمیم بگیرد؟

 انسان با قدرت تفکر و استدلال و با توجه به دلایل روحی و روانی و البته اخلاقیات تصمیم می‌گیرد. درست یا غلط فرقی نمی‌کند، به هر حال تصمیم می‌گیرد. روبات‌ها هم باید در شرایط پیچیده، طوری برنامه‌ریزی شوند که بهترین تصمیم را بگیرند و یا حداقل تصمیمی بگیرند که بهتر از انفعال باشد. اما چطور؟ در ادامه نگاهی به برخی مطالعات در این عرصه می‌اندازیم.

داستان کوتاه "طفره" به قلم نویسنده‌ی مشهور داستان‌های علمی-تخیلی، آیزاک آسیموف، با دو دانشمند مستقر در سیاره‌ی عطارد شروع می‌شود. آنها متوجه شده‌اند که سوخت مورد نیاز پایگاه انسانی رو به اتمام است. در شرایط پیش آمده، روباتی به نام Speedy را برای جست‌وجوی سوخت اعزام می‌کنند. اسپیدی همان‌طور که از نام آن پیداست، روبات سریعی است ولیکن پس از 5 ساعت باز می‌گردد و در حالی که به دور خود می‌چرخد، حرف‌های بی‌معنی تحویل پاول و داناوان می‌دهد.

ایزاک آسیموف بارها در کتب مختلف خود که روبات‌ها در آن حضور دارند از سه قانون وضع شده برای روبات‌ها صحبت می‌کند. شاید کتاب معروف انسان دو قرنی را خوانده‌اید و یا شاید در کتب دیگر با سه قانون جالب آسیموف مواجه شده باشید. به هر حال سه قانون بزرگ آسیموف این است:

  • یک روبات نباید به انسان آسیب برساند؛ همچنین نباید در برابر اتفاقاتی که ممکن است منجربه مرگ یک انسان شود،  اهمال و سهل انگاری کند.
  • یک روبات باید دستوراتی که انسان‌ها به او می‌دهند را اطاعت کند، به جز دستوراتی که اجرای آن به نقض قانون اول می‌انجامد.
  • یک روبات باید تا جایی که قانون اول یا دوم نقض نمی‌شود، از خود محافظت کند.

سه قانون کاملاً روشن روبات‌ها، به گیج شدن اسپیدی منجر شده چرا که از طرفی طبق قانون سوم باید از خود محافظت کند و از طرف دیگر قانون دوم به او می‌گوید دستور را اطاعت کن. اسپیدی در تضادی اسیر شده که راهی برای حل آن پیدا نمی‌کند و این آغاز یک بحران روحی است.

با ورود روبات‌ها به دنیای واقعی، مسأله‌ی سیستم اخلاقی اهمیت بیشتری پیدا می‌کند

آسیموف در تخیلات خویش، سال 2015 را به عنون تاریخی که اتفاقات در آن رخ داده انتخاب کرده است که به نظر کمی زود می‌رسد! هنوز انسان به سیارات نزدیک هم اشراف پیدا نکرده، حال اینکه عطارد، نزدیک‌ترین همسایه‌ی خورشید و سطح داغش موضوعی پیچیده‌تر است. اما چند سالی است که روبات‌های ساده برای کاربردهای خانگی معرفی می‌شوند؛ روبات‌های نظامی هم به زودی در کنار سربازها دیده خواهند شد و از همه جالب‌تر خودروهای بدون راننده است که در زومیت به آن اشاره کردیم. قرار است روبات‌هایی برای کار در کنار انسان‌ها در کارخانه‌ها روانه‌ی بازار شوند.

تمام این موارد به ما یادآوری می‌کنند که به زودی با مشکل روحی روبات‌ها مواجه می‌شویم. این موضوع به ویژه در مورد خودروهای خودران روشن است؛ خودرو باید در حوادث چه عکس‌العملی نشان دهد؟ آیا بهتر است کاری نکند و 5 انسان در تصادف کشته شوند و یا بهتر است با انحراف از مسیر، جان 5 نفر را نجات دهد ولیکن راننده‌ی خودرو کشته شود؟

پاسخ درستی برای این گونه سوالات وجود ندارد و حتی اگر وجود داشته باشد هم بسیاری از دانشمندان و محققین عرصه‌ی روباتیکس بر این باورند که پیش‌بینی هر یک از سناریوهای احتمالی و برنامه‌ریزی روبات برای واکنش به هر مورد، در عمل کاربردی نیست.

پروفسور Matthias Scheutz یکی از متخصصین علوم کامپیوتر از دانشگاه Tuffs می‌گوید:

تقریباً غیرممکن است که بتوان سیستمی پیچیده از گزاره‌های برنامه‌نویسی مثل "اگر، آنگاه و در غیر این صورت" را برای پوشش تمام اتفاقات ممکن نوشت. موضوع این نیست که نوشتن چنین برنامه‌ای بسیار مشکل است، نکته این است که پیش‌بینی تمام اتفاقات و موقعیت‌ها احتمالی و لیست کردنشان بسیار پیچیده است.

روش جدید استفاده از منطق و دلایل است، قرار نیست قوانین از پیش نوشته شده اجرا شوند

Scheutz به جای این کار در تلاش است مغز متفکر روبات را شبیه به انسان‌ها طراحی کند، مغزی که دلیل می‌آورد و تصمیم اخلاقی می‌گیرد. تیم او اخیراً بودجه‌ای 7.5 میلیون دلار از دفتر تحقیقات نیروی دریایی یا ONR دریافت کرده است و روی موضوع شناخت و تحلیل افکار انسان در هنگامی که یک تصمیم اخلاقی می‌گیرد، مشغول به کار است. محققین در ادامه می‌خواهند همین روش تصمیم‌گیری را در روبات‌ها شبیه‌سازی کنند.

پس از 5 سال کار روی این پروژه، منتظر نمایشی از روباتی که تصمیم می‌گیرد هستیم. یک مثال ساده، روبات پزشک است که دستور دارد داروهای فوریتی را به بیمارستان برساند تا جان انسان‌ها را نجات دهد. در راه با یک سرباز روبرو می‌شود که به سختی مجروح شده است. آیا باید مأموریت اصلی خود را فراموش کند و به سرباز کمک کند؟

اهمیت تصمیمی که روبات می‌گیرد کمتر از توانایی تصمیم‌گیری و ارایه‌ی دلایل مختلف است. روبات برای تصمیم‌گیری باید عوامل مختلف را سبک و سنگین کند و به نتیجه برسد؛ پس از تصمیم‌گیری هم باید در مورد واقعیت‌ها توضیح دهد.

Scheutz می‌گوید روبات‌هایی که می‌بینیم، روز به روز پیچیده‌تر و طبیعی‌تر و نیز خودکارتر می‌شود. برای ما بسیار مهم است که این مطالعات را شروع کنیم. قطعاً نمی‌خواهیم جامعه‌ی آینده‌ی ما مملو از روبات‌هایی شود که نسبت به تصمیمات اخلاقی دشوار، حساس و ناتوان باشند.

روش Scheutz، تنها روش جدید برای تصمیم‌گیری روبات‌ها نیست. Roh Arkin یکی از اخلاق‌گرایان مشهور است که در موسسه‌‌ی تکنولوژی‌ها در جورجیا با نظامیان همکاری می‌کند. او قوانینی شبیه به آیزاک آسیموف برای کنترل رفتار روبات‌ها نوشته است و نام گاورنور اخلاقی یا به عبارتی دستگاه خودکار کنترل اخلاقی بر آن نهاده است. البته در مورد اینکه او اولین کسی است که چنین قوانینی نوشته بحث زیادی وجود دارد اما به هر حال راهی برای کنترل رفتار روبات‌ها در شرایط مختلف است.

آرکین به شکل‌گیری اخلاق در نوزادان پرداخته است، چیزی که شاید در طراحی روبات هم قابل استفاده باشد.

آرکین و تیمش برای دریافت بودجه از ONR، روش جدید خود را به شکل طرح پیشنهادی ارایه کرده‌اند. آرکین در پیشبرد پروژه‌ی خود برخلاف Scheutz که به روان‌شناسی افراد پرداخته، شکل‌گیری اخلاق در نوزادان را بررسی می‌کند. پروژه‌ی آرکین در نهایت برای رسیدن به مرحله‌ایست که در معماری Soar به کار گرفته شود. Soar یکی از سیستم‌های شناختی معروف برای روبات‌هایی است که با هدف حل مسأله و یافتن اهداف طراحی می‌شوند. آرکین در دریافت بودجه موفق نبوده ولیکن هنوز به دنبال کردن بخش‌هایی از طرح پیشنهادی خود امیدوار است. متأسفانه سرمایه‌گذاری روی مسأله‌ی اخلاقی روبات‌ها اوضاع خوبی ندارد.

شاید روبات‌ها به مرحله‌ای برسند که سریع‌تر از انسان تصمیم گرفته و با تصمیم بهتر، جان افراد بیشتری را نجات دهند

این امید وجود دارد که روبات‌ها بالاخره به مرحله‌ای برسند که حتی سریع‌تر از انسان، محاسبات اخلاقی را انجام داده و تصمیم بهتر را اتخاذ کنند. یک راننده در تصادف خودرو که شاید در کسری از ثانیه اتفاق بیافتند، قادر به محاسبه و بررسی خطرات بالقوه‌ای که ممکن است موجب از دست رفتن جان انسان‌ها شود، نیست.

چالش دیگری که قبل از تصمیم‌گیری اخلاقی در مورد روبات‌ها وجود دارد، جمع‌آوری اطلاعات از محیط پیرامون است. روبات در محاسبات خود به این اطلاعات نیاز دارد. اطلاعاتی مثل اینکه چند نفر در صحنه حضور دارند و هر یک چه نقشی در حادثه بازی می‌کنند. روبات‌های امروزی از نظر ادراکی در سطح بالایی نیستند. طراحی روباتی که در میدان جنگ، سربازان خودی را از دشمن تشخیص دهد مشکل است، یا مثلاً روباتی که در حوادث قرار است علاوه بر وضعیت جسمانی به سلامت روحی سربازان هم بپردازد و به آنها کمک کند، روبات کاملاً پیچیده‌ایست.

هنوز نمی‌توان گفت که آیا ONR و تلاش‌هایی که برای طراحی سیستم استدلال اخلاقی می‌کند، عملی خواهد شد یا نه. ممکن است در نهایت به این نتیجه برسیم که اگر روبات‌ها بنابر مجموعه‌ای از دستورات اولویت‌بندی شده عمل کنند بهتر است.

اما داستان کوتاه آسیموف در نهایت چطور تمام شد؟ دو دانشمند در نهایت توانستند روبات اسپیدی را از حلقه‌ی محاسباتی که در آن به دام افتاده بود خارج کنند. آنها اولین و البته مهم‌ترین قانون روباتیکس را یادآوری کردند: نباید به انسانی آسیب برسد، چه مستقیم و چه به صورت غیر مستقیم با اهمال و دست روی دست گذاشتن. یکی از دانشمندان خود را در معرض نور داغ و کشنده‌ی خورشید قرار داد تا جایی که اسپیدی از ترس و وحشت خود بیرون آمد و به نجات وی شتافت. روبات شرمنده شده و عذرخواهی کرد. به هر حال در برنامه‌نویسی برای یک روبات، هویتی مثل بردگان به وی داده می‌شود. آرکین می‌گوید اینکه تشخیص دهیم چه چیزی درست است و چه چیزی غلط، کار مشکلی است. برای یک روبات هم همین طور است و شاید معذرت‌خواهی بی‌مورد باشد.

نظر شما در مورد تصمیم‌گیری ماشینی روبات‌ها چیست؟ آیا ممکن است نتیجه دهد و روبات‌های جالب و هوشمند معرفی شوند یا همه‌ی کارهای تحقیقاتی، علی‌رغم ارزشمند بودن خود، در حد یک خیال باطل هستند و به نتیجه نمی‌رسند؟

ادامه مطلب http://www.zoomit.ir/articles/etc/11684-challenge-robots-morality-decision

خواندن 1063 دفعه
ads
ads2