هوش مصنوعی مسئولانه از نگاه فقه
احمدرضا احمدپور، روحانی و دانش آموخته حوزه علمیه قم، در کانال تلگرامی خود نوشت: «هوش مصنوعی، با پیشرفتهای خیرهکنندهاش، نه تنها توانمندیهایی را به زندگی ما افزوده، بلکه پرسشهای عمیق اخلاقی را نیز مطرح میکند. در این بخش، بررسی مرزهای اخلاق در دنیای هوش مصنوعی و چالشهای کلیدی را با رویکردی تحلیلی،تفسیری به بحث گذاشته میشود.
مسئولیتپذیری: معمای تصمیمگیریهای ماشینی
وقتی سیستم هوش مصنوعی تصمیمی زیانبار میگیرد، چه کسی مسئول است؟
آیا باید سازنده، کاربر یا خود سیستم هوش مصنوعی را مسئول دانست؟
آیا میتوان به ماشینها اراده و قصد نسبت داد؟
آیا باید آنها را بهمانند عوامل اخلاقی مستقل در نظر گرفت؟
در فقه شیعی، مسئولیت (ضمان) بر اساس قواعدی مانند قاعده «اتلاف» [یا تسبیب زیان] و «غَرور» (فریب) تعیین میشود. اگر سازنده الگوریتمهای هوش مصنوعی با طراحی معیوب یا ارائه اطلاعات نادرست، موجب زیان شود، مسئول است.
اگر کاربر با استفاده نادرست از سیستم، خسارت وارد کند، مسئولیت با اوست؛ اما اگر تاروپود ترکیبی هوش مصنوعی بهدلیل عملکرد پیشبینیناپذیر خود، زیان به بار آورد، مثلا بهخاطر انباشت بیش از اندازه دادهها و موضوعات، دچار خطا یا توهم دانایی در محاسبات خود شود، مسئله پیچیدهتر است و چهبسا پای قواعد دیگری مانند «تقصیر»، «لاضرر و لاضرار» و «عدم استطاعت» (ناتوانی) و… پیش بیاید. بحث فقاهتی چنین پرسمانها برای فقیهان در دنیای امروز AIها ضروری است و بررسیهای پژوهشگران و مجتهدان فقیه را طلب میکند.
تعصبات الگوریتمی: بازتاب تبعیضهای انسانی
سیستمهای هوش مصنوعی، مانند آینههایی هستند که تعصبات موجود در دادههای آموزشی خود را بازتاب میدهند. اعمال تعصبات انسانی در الگوریتمها میتوانند تبعیض در تصمیمگیریهای هوش مصنوعی را بهدنبال داشته باشند و نابرابریهای اجتماعی از راه تئوریپردازی یا تواناییهای دیجیتالی را تشدید کنند. حال پرسش پیش میآید که چگونه میتوان الگوریتمهایی را طراحی کرد که عادلانه و بیطرف باشند؟
از دیدگاه فقهی، تبعیض و بیعدالتی بهشدت مذموم است. قرآن کریم بر عدالت و برابری انسانها تأکید دارد؛ بنابراین برای رفع تبعیض و تعصب، باید از الگوریتمهای حساس به عدالت، استفاده کرد و پیوسته پایش عملکرد سیستمها را انجام داد.
نبود شفافیت: جعبه سیاه تصمیمگیریهای ماشینی
بسیاری از سیستمهای هوش مصنوعی، بهویژه آنهاییکه از یادگیری عمیق استفاده میکنند، بهمانند «جعبه سیاه» هستند که درک چگونگی رسیدن آنها به تصمیمی خاص را سخت میکند. در نبود چنین شفافیتی، اعتماد به سیستمها کاهش مییابد و شناسایی کژیهای اخلاقی و تعصبزداییها را دشوار میکند.
آیا میتوان الگوریتمهایی را طراحی کرد که شفاف و توضیحپذیر بوده و میان دقت و شفافیت تعادل پیدا کرد؟
از نظر فقهی، شفافیت و فهم پذیر بودن تصمیمات، بهویژه در امور مهم، حائز اهمیت است. اصل «وجوب بیان» در فقه، بر لزوم روشن و واضحبودن احکام و دلایل آنها تأکید دارد؛ بنابراین، کوشش برای افزایش شفافیت سیستمهای هوش مصنوعی و ارائه توضیحات روشن و دقیق برای تصمیمگیری آنها ضروری است.
حریم خصوصی: مرزهای اطلاعات شخصی
گردآوری و پردازش حجم عظیمی از دادهها با سیستمهای هوش مصنوعی، نگرانیهایی را درباره حریم خصوصی افراد پدید میآورد.
حفظ حریم خصوصی در فقه اسلامی جایگاه ویژهای دارد. قرآن کریم از تجسس و فاشکردن اسرار دیگران نهی میکند؛ بنابراین، گردآوری و پردازش دادهها با سیستمهای هوش مصنوعی باید با رعایت کامل حریم خصوصی افراد و با کسب رضایت آگاهانه آنها صورت بگیرد.
تصمیمگیریهای اخلاقی: ماشینها در جایگاه انسان
با پیشرفت هوش مصنوعی، سیستمها ممکن است بهطور فزایندهای خودمختار شوند و بدون دخالت انسان تصمیمگیری کنند؛ ازاینرو درباره کنترل انسان بر فناوری و احتمال خروج سیستمها از کنترل پرسیده میشود: آیا میتوان الگوریتمهایی را طراحی کرد که ارزشهای اخلاقی انسانی را به آنها آموزش داد تا تصمیمات اخلاقی درستی بگیرند؟
پاسخ میتواند مثبت باشد. فقه و جهانبینی اسلامی، انسان را خلیفه خدا و مسئول حفظ و ارتقای ارزشهای اخلاقی در زمین میدانند؛ بنابراین، طراحی سیستمهای هوش مصنوعی که بهطور مستقل تصمیمهای اخلاقی میگیرند، باید با احتیاط فراوان و همواره با نظارت و کنترل انسان باشد.
برداشت
مسائل اخلاقی مرتبط با هوش مصنوعی مسئولانه، نه تنها چالشهای فنی، بلکه پرسشهای عمیق فلسفی و اجتماعی و فقهی را نیز مطرح میکنند. راه حل چنین مسائلی، نیازمند گفتوگو و همکاری میان متخصصان رشتههای مربوط، فقها، سیاستگذاران و عموم مردم است. با تدوین اصول اخلاقی و فقهی مناسب، میتوان مطمئن شد که گسترش و استفاده مسئولانه از هوش مصنوعی، مزایای فراوانی برای بهبود زندگی بشر خواهد داشت.»
انتهای پیام
∎[2][3]Authors: صاحبخبران - جدیدترین و آخرین اخبار ایران و جهان - علمی-فناوری