هیجان هوش مصنوعی کاهش یافته است
چرا این شکاف بزرگ بین علاقهمندی و واقعیت وجود دارد؟
پاسخ به این سؤال چندوجهی است. نگرانیها در مورد امنیت و حریم خصوصی دادهها، خطرات رعایت مقررات و مدیریت دادهها برجسته است، اما همچنین نگرانیهایی در مورد عدم شفافیت هوش مصنوعی و دغدغههایی در مورد بازده سرمایهگذاری (ROI)، هزینهها و شکافهای مهارتی وجود دارد. در این مقاله به بررسی موانع پذیرش هوش مصنوعی خواهیم پرداخت و اقداماتی را که مدیران کسبوکار میتوانند برای غلبه بر این موانع انجام دهند، بررسی خواهیم کرد.
کنترل دادهها
دادههای با کیفیت بالا، سنگ بنای مدلهای هوش مصنوعی دقیق و قابل اعتماد است که در نتیجه،تصمیمگیری بهتر و نتایج بهتری به همراه دارد.راب جانسون،معاون رئیسجمهور ورئیس جهانی بخش مهندسی راهحلها درSolarWindsمیگوید: «اطلاعات صحیح و درست، اعتماد را در میان متخصصان فناوری اطلاعات ایجاد میکند و پذیرش و ادغام گستردهتر فناوریهای هوش مصنوعی را تسریع میکند.»
امروز فقط ۴۳ درصد متخصصان فناوری اطلاعات میگویند از توانایی خود در برآوردهکردن نیازهای اطلاعاتی هوش مصنوعی اطمینان دارند. با توجه به این که دادهها برای موفقیت هوش مصنوعی بسیار حیاتی بوده، تعجبآور نیست که پذیرش هوش مصنوعی را در بین عموم کند کرده است.بهترین راه برای غلبه بر این مانع، بازگشت به اصول دادههاست. سازمانها باید ابتدا با ایجاد یک استراتژی قوی در خصوص حاکمیت دادهها، کنترل سختگیرانهای در کیفیت و یکپارچگی دادهها داشته باشند.
توجه به اخلاق و حاکمیت
با افزایش مقررات، رعایت آنها هماکنون برای بسیاری از سازمانها به دردسر تبدیل شده است. هوش مصنوعی فقط زمینههای جدیدی از ریسکها، مقررات بیشتر و مسائل جدید حاکمیت اخلاقی برای رهبران کسبوکار به وجود میآورد، بهطوری که ریسک امنیتی ورعایت مقررات به عنوان مهمتریننگرانی درگزارشوضعیت هوشمصنوعی سازمانیومعماری دادههای مدرن Cloudera ذکر شده است.اگرچه افزایش مقررات هوشمصنوعی ممکن است ابتدا نگرانکننده به نظربرسد،اما مدیران اجرایی بایداز حمایتهایی که این چارچوبها ارائه میدهند استقبال کنند، چرا که این چارچوبها میتواند به سازمانها ساختاری ارائه دهد که بر اساس آن کنترلهای ریسک وحاکمیتاخلاقی خودرابسازند.توسعه سیاستهای رعایت مقررات،تعیین تیمهای حاکمیت هوشمصنوعی واطمینان ازاینکه انسانهاهمچنان اختیار تصمیمگیریهای مبتنی بر هوش مصنوعی را دارند، از گامهای مهم در ایجاد یک سیستم جامع اخلاقی و حاکمیتی در زمینه هوش مصنوعی است.
تقویت کنترل بر امنیت و حریم خصوصی
درهر کسب وکاری نگرانیهای امنیتی وحریم خصوصی دادهها وجود داشته و این نگرانیها دلایل خوبی دارد.مطالعه معیارهای حریم خصوصی دادهها درشرکت سیسکو درسال۲۰۲۴ نشان داد ۴۸ درصد کارکنان اذعان دارند اطلاعات محرمانه شرکت را وارد ابزارهای هوش مصنوعی عمومی کردهاند. این عمل باعث شده ۲۷ درصد سازمانها استفاده از این ابزارها را ممنوع کنند.بهترین راه برای کاهش خطرات،محدود کردن دسترسی به دادههای حساس است.این شامل تقویت کنترلهای دسترسی وجلوگیری از گسترش امتیازات و محافظت از دادهها دربرابر مدلهای زبانی عمومی است.آوی پرز،مدیر ارشدفناوری اطلاعات Pyramid Analytics، توضیح داد که زیرساخت هوش مصنوعی نرمافزار هوش تجاری آنها عمدتا برای جلوگیری از دسترسی مدلهای زبانی عمومی به دادهها طراحی شده است، بهطوری که تنها متادادههایی که مشکل را توضیح میدهند به اشتراک گذاشته میشود و با مدل زبانی عمومی ارتباط برقرار میکند.
پرز اضافه میکند:مجموعه بزرگی ازمسائل در اینجا وجود دارد. این فقط مربوط به حریم خصوصی نیست، بلکه به نتایج گمراهکننده نیز مرتبط است. بنابراین در این چارچوب، حریم خصوصی دادهها و مسائل مربوط به آن از نظر من بسیار مهم است. اینها میتواند مانع بزرگی باشد. با این حال، با تنظیم Pyramid ، مدل زبانی عمومی دستورالعملها را تولید میکند، اما این کار را بدون دسترسی به دادهها و بدون انجام عملیات ریاضی انجام میدهد. این کار، ۹۵ درصد مشکلات را از نظر خطرات حریم خصوصی دادهها از بین میبرد.
قابلیت بیان شفافیت
یکی دیگر ازموانع جدی پذیرش هوش مصنوعی، بیاعتمادی به نتایج آن است.داستان معروف ابزاراستخدام مبتنی برهوش مصنوعی آمازون که علیه زنان تبعیض قائل میشد، به یک داستان هشداردهنده تبدیل شده که بسیاری از مردم را از هوش مصنوعی دور میکند. بهترین راه برای مقابله با این ترس، افزایش قابلیت توضیحدهی و شفافیت است.عدنان مسعود، معمار ارشد هوش مصنوعی در UST و مدیرمنطقهای مایکروسافت میگوید: شفافیت هوش مصنوعی به معنای توضیح واضح دلایل پشت نتایج است، بهطوری که فرآیند تصمیمگیری قابل دسترس و قابل فهم باشد. درنهایت،هدف این است که رمزوراز جعبه سیاه هوش مصنوعی را ازبین ببریم و بینشی در مورد چگونگی و چرایی تصمیمگیری هوش مصنوعی ارائه دهیم. متأسفانه، بسیاری از مدیران اجرایی اهمیت شفافیت را نادیده میگیرند. یک مطالعه اخیر IBM نشان داده که فقط ۴۵ درصد مدیران اجرایی میگویند که در حال ارائه قابلیتهای بیان شفافیت هستند.
تعریف ارزش تجاری
هزینهها همیشه یکی ازموانع هوش مصنوعی هستند. نظرسنجی Clouderaنشان دادکه ۲۶درصد ازپاسخدهندگان گفتندکه ابزارهای هوش مصنوعی خیلی گران است و گارتنر «ارزش تجاری نامشخص» رابه عنوان یک عامل در شکست پروژههای هوش مصنوعی ذکر کرده است. با این حال، همان گزارش گارتنر اشاره کرد که هوش مصنوعی عمومی توانسته افزایش درآمد و صرفهجویی درهزینهها را بهطور متوسط بیش از ۱۵درصد برای کاربران خود ایجاد کند، که اثبات میکند هوش مصنوعی میتواند در صورت پیادهسازی صحیح باعث سوددهی شود.
مایکل رابینسون، مدیر بازاریابی محصول در UiPathمیگوید: هوش مصنوعی باید مانند هر پروژه تجاری دیگری بررسی شود. مناطقی را شناسایی کنید که بازده سریع سرمایهگذاری دارد. فواید مورد انتظار خود را تعریف کرده و شاخصهای کلیدی عملکرد (KPI) خاصی تعیین کنید تا بتوانید ارزش آن را اثبات کنید.»
راهاندازی برنامههای آموزشی مؤثر
شکاف مهارتی همچنان یک مانع بزرگ برای پذیرش هوش مصنوعی باقی مانده است، اما به نظر میرسد تلاش کمی برای رفع این مشکل انجام میشود. گزارشی از Worklife نشان میدهد افرادی که در روزهای آغازین با هوش مصنوعی آشنا شده بودند، آن را پذیرفتهاند. اکنون نوبت به کسانی رسیده که به طورطبیعی مشکوک و معمولا اعتماد کمتری به هوش مصنوعی و هر فناوری جدید دارند.این مسأله اهمیت آموزش رابه وضوح نشان میدهد.بااین حال،طبق مطالعه وضعیت هوشمصنوعی درمحل کار Asana،۸۲ درصدشرکتکنندگان گفتند که سازمانهایشان آموزشی درخصوص استفاده ازهوش مصنوعی تولیدی(Generative AI) ارائه نکردهاند.هیچ نشانهای وجودنداردکه نشان دهد آموزش مؤثرنیست؛بلکه نشاندهنده این استکه آموزش بهشکلی که باید،انجام نمیشود.
نتیجهگیری واضح این است که باید آموزش جامع در زمینه مهارتهای درست استفاده از هوش مصنوعی و مهارتهای مرتبط دیگر ارائه شود. به طور دلگرمکنندهای، همان تحقیق نشان میدهد که حتی استفاده از هوش مصنوعی بدون آموزش نیز مهارتها و اعتماد به نفس افراد را افزایش میدهد.گرچه پذیرش هوش مصنوعی کند شده است، اماهیچ نشانهای وجود ندارد که این امر در بلندمدت خطرناک باشد.موانع زیادی که دربرابر اجرای ابزارهای هوش مصنوعی درشرکتها وجوددارد،میتواند بدون مشکل خاصی برطرف شود. بسیاری از این گامها، مانند تقویت کیفیت دادهها و حاکمیت اخلاقی، باید حتی در صورتی که هوش مصنوعی درحال حاضر در نظر گرفته نشده باشد، انجام شوند.
Authors: صاحبخبران - جدیدترین و آخرین اخبار ایران و جهان - علمی-فناوری