پرینت

هیجان هوش مصنوعی کاهش یافته است

on .

هیجان هوش مصنوعی کاهش یافته است
شرکت McKinsey تخمین زده که هوش مصنوعی عمومی‌(GenAI)‌ می‌تواند تا ۲.۶تریلیون دلار برای شرکت‌ها در حوزه‌های مختلف صرفه‌جویی کند. با این حال، آنها در عمل هنوز وارد این عرصه نشده‌اند. طبق یک نظرسنجی از مدیران ارشد تحلیل داده‌ها و فناوری اطلاعات، فقط۲۰ درصد از برنامه‌های هوش مصنوعی عمومی در حال حاضر در حال بهره‌برداری است.
 
چرا این شکاف بزرگ بین علاقه‌مندی و واقعیت وجود دارد؟
پاسخ به این سؤال چندوجهی است. نگرانی‌ها در مورد امنیت و حریم خصوصی داده‌ها، خطرات رعایت مقررات و مدیریت داده‌ها برجسته است، اما همچنین نگرانی‌هایی در مورد عدم شفافیت هوش مصنوعی و دغدغه‌هایی در مورد بازده سرمایه‌گذاری ‌(ROI)، هزینه‌ها و شکاف‌های مهارتی وجود دارد. در این مقاله‌ به بررسی موانع پذیرش هوش مصنوعی خواهیم پرداخت و اقداماتی را که مدیران کسب‌وکار می‌توانند برای غلبه بر این موانع انجام دهند، بررسی خواهیم کرد.
 
کنترل داده‌ها
داده‌های با کیفیت بالا، سنگ بنای مدل‌های هوش مصنوعی دقیق و قابل اعتماد است که در نتیجه،تصمیم‌گیری بهتر و نتایج بهتری به همراه دارد.راب جانسون،معاون رئیس‌جمهور ورئیس جهانی بخش مهندسی راه‌حل‌ها درSolarWindsمی‌گوید: «اطلاعات صحیح و درست، اعتماد را در میان متخصصان فناوری اطلاعات ایجاد می‌کند و پذیرش و ادغام گسترده‌تر فناوری‌های هوش مصنوعی را تسریع می‌کند.»
امروز فقط ۴۳ درصد متخصصان فناوری اطلاعات می‌گویند از توانایی خود در برآورده‌کردن نیازهای اطلاعاتی هوش مصنوعی اطمینان دارند. با توجه به این که داده‌ها برای موفقیت هوش مصنوعی بسیار حیاتی بوده، تعجب‌آور نیست که پذیرش هوش مصنوعی را در بین عموم کند کرده است.بهترین راه برای غلبه بر این مانع، بازگشت به اصول داده‌هاست. سازمان‌ها باید ابتدا با ایجاد یک استراتژی قوی در خصوص حاکمیت داده‌ها‌، کنترل‌ سختگیرانه‌ای در کیفیت و یکپارچگی داده‌ها داشته باشند.
 
توجه به اخلاق و حاکمیت
با افزایش مقررات، رعایت آنها هم‌اکنون برای بسیاری از سازمان‌ها به دردسر تبدیل شده است. هوش مصنوعی فقط زمینه‌های جدیدی از ریسک‌ها، مقررات بیشتر و مسائل جدید حاکمیت اخلاقی برای رهبران کسب‌وکار به وجود می‌آورد، به‌طوری که ریسک امنیتی ورعایت مقررات به عنوان مهم‌ترین‌نگرانی درگزارش‌وضعیت هوش‌مصنوعی سازمانی‌ومعماری داده‌های مدرن Cloudera ذکر شده است.اگرچه افزایش مقررات هوش‌مصنوعی ممکن است ابتدا نگران‌کننده به نظربرسد،اما مدیران اجرایی بایداز حمایت‌هایی که این چارچوب‌ها ارائه می‌دهند استقبال کنند، چرا که این چارچوب‌ها می‌تواند به سازمان‌ها ساختاری ارائه دهد که بر اساس آن کنترل‌های ریسک وحاکمیت‌اخلاقی خودرابسازند.توسعه سیاست‌های رعایت مقررات،تعیین تیم‌های حاکمیت هوش‌مصنوعی واطمینان ازاین‌که انسان‌هاهمچنان اختیار تصمیم‌گیری‌های مبتنی بر هوش مصنوعی را دارند، از گام‌های مهم در ایجاد یک سیستم جامع اخلاقی و حاکمیتی در زمینه هوش مصنوعی است.
 
تقویت کنترل بر امنیت و حریم خصوصی
درهر کسب وکاری نگرانی‌های امنیتی وحریم خصوصی داده‌ها وجود داشته و این نگرانی‌ها دلایل خوبی دارد.مطالعه معیارهای حریم خصوصی داده‌ها درشرکت سیسکو درسال۲۰۲۴ نشان داد ۴۸ درصد کارکنان اذعان دارند اطلاعات محرمانه شرکت را وارد ابزارهای هوش مصنوعی عمومی کرده‌اند. این عمل باعث شده ۲۷ درصد سازمان‌ها استفاده از این ابزارها را ممنوع کنند.بهترین راه برای کاهش خطرات،محدود کردن دسترسی به داده‌های حساس است.این شامل تقویت کنترل‌های دسترسی وجلوگیری از گسترش امتیازات و محافظت از داده‌ها دربرابر مدل‌های زبانی عمومی است.آوی پرز،مدیر ارشدفناوری اطلاعات Pyramid Analytics، توضیح داد که زیرساخت هوش مصنوعی نرم‌افزار هوش تجاری آنها عمدتا برای جلوگیری از دسترسی مدل‌های زبانی عمومی به داده‌ها طراحی شده است، به‌طوری که تنها متاداده‌هایی که مشکل را توضیح می‌دهند به اشتراک گذاشته می‌شود و با مدل زبانی عمومی ارتباط برقرار می‌کند.
پرز اضافه می‌کند:مجموعه بزرگی ازمسائل در اینجا وجود دارد. این فقط مربوط به حریم خصوصی نیست، بلکه به نتایج گمراه‌کننده نیز مرتبط است. بنابراین در این چارچوب، حریم خصوصی داده‌ها و مسائل مربوط به آن از نظر من بسیار مهم است. این‌ها می‌تواند مانع بزرگی باشد. با این حال، با تنظیم Pyramid ، مدل زبانی عمومی دستورالعمل‌ها را تولید می‌کند، اما این کار را بدون دسترسی به داده‌ها و بدون انجام عملیات ریاضی انجام می‌دهد. این کار، ۹۵ درصد مشکلات را از نظر خطرات حریم خصوصی داده‌ها از بین می‌برد.

قابلیت بیان شفافیت
یکی دیگر ازموانع جدی پذیرش هوش مصنوعی، بی‌اعتمادی به نتایج آن است.داستان معروف ابزاراستخدام مبتنی برهوش مصنوعی آمازون که علیه زنان تبعیض قائل می‌شد، به یک داستان هشداردهنده تبدیل شده که بسیاری از مردم را از هوش مصنوعی دور می‌کند. بهترین راه برای مقابله با این ترس، افزایش قابلیت توضیح‌دهی و شفافیت است.عدنان مسعود، معمار ارشد هوش مصنوعی در UST و مدیرمنطقه‌ای مایکروسافت می‌گوید: شفافیت هوش مصنوعی به معنای توضیح واضح دلایل پشت نتایج است، به‌طوری که فرآیند تصمیم‌گیری قابل دسترس و قابل فهم باشد. درنهایت،هدف این است که رمزوراز جعبه سیاه هوش مصنوعی را ازبین ببریم و بینشی در مورد چگونگی و چرایی تصمیم‌گیری هوش مصنوعی ارائه دهیم. متأسفانه، بسیاری از مدیران اجرایی اهمیت شفافیت را نادیده می‌گیرند. یک مطالعه اخیر IBM نشان داده که فقط ۴۵ درصد مدیران اجرایی می‌گویند که در حال ارائه قابلیت‌های بیان شفافیت هستند. 

تعریف ارزش تجاری
هزینه‌ها همیشه یکی ازموانع هوش مصنوعی هستند. نظرسنجی Clouderaنشان دادکه ۲۶درصد ازپاسخ‌دهندگان گفتندکه ابزارهای هوش مصنوعی خیلی گران است و گارتنر «ارزش تجاری نامشخص» رابه عنوان یک عامل در شکست پروژه‌های هوش مصنوعی ذکر کرده است. با این حال، همان گزارش گارتنر اشاره کرد که هوش مصنوعی عمومی توانسته افزایش درآمد و صرفه‌جویی درهزینه‌ها را به‌طور متوسط بیش از ۱۵درصد برای کاربران خود ایجاد کند، که اثبات می‌کند هوش مصنوعی می‌تواند در صورت پیاده‌سازی صحیح باعث سوددهی شود.
مایکل رابینسون، مدیر بازاریابی محصول در UiPathمی‌گوید: هوش مصنوعی باید مانند هر پروژه تجاری دیگری بررسی شود‌. مناطقی را شناسایی کنید که بازده سریع سرمایه‌گذاری دارد. فواید مورد انتظار خود را تعریف کرده و شاخص‌های کلیدی عملکرد (KPI) خاصی تعیین کنید تا بتوانید ارزش آن را اثبات کنید.» 

راه‌اندازی برنامه‌های آموزشی مؤثر
شکاف مهارتی همچنان یک مانع بزرگ برای پذیرش هوش مصنوعی باقی مانده است، اما به نظر می‌رسد تلاش کمی برای رفع این مشکل انجام می‌شود. گزارشی از Worklife نشان می‌دهد افرادی که در روزهای آغازین با هوش مصنوعی آشنا شده بودند، آن را پذیرفته‌اند. اکنون نوبت به کسانی رسیده که به طورطبیعی مشکوک و معمولا اعتماد کمتری به هوش مصنوعی و هر فناوری جدید دارند.این مسأله اهمیت آموزش رابه وضوح نشان می‌دهد.بااین حال،طبق مطالعه وضعیت هوش‌مصنوعی درمحل کار Asana،۸۲ درصدشرکت‌کنندگان گفتند که سازمان‌های‌شان آموزشی درخصوص استفاده ازهوش مصنوعی تولیدی(Generative AI) ارائه نکرده‌اند.هیچ نشانه‌ای وجودنداردکه نشان دهد آموزش مؤثرنیست؛بلکه نشان‌دهنده این است‌که آموزش به‌شکلی که باید،انجام نمی‌شود.
نتیجه‌گیری واضح این است که باید آموزش جامع در زمینه مهارت‌های درست استفاده از هوش مصنوعی و مهارت‌های مرتبط دیگر ارائه شود. به طور دلگرم‌کننده‌ای، همان تحقیق نشان می‌دهد که حتی استفاده از هوش مصنوعی بدون آموزش نیز مهارت‌ها و اعتماد به نفس افراد را افزایش می‌دهد.گرچه پذیرش هوش مصنوعی کند شده است، اماهیچ نشانه‌ای وجود ندارد که این امر در بلندمدت خطرناک باشد.موانع زیادی که دربرابر اجرای ابزارهای هوش مصنوعی درشرکت‌ها وجوددارد،می‌تواند بدون مشکل خاصی برطرف شود. بسیاری از این گام‌ها، مانند تقویت کیفیت داده‌ها و حاکمیت اخلاقی، باید حتی در صورتی که هوش مصنوعی درحال حاضر در نظر گرفته نشده باشد، انجام شوند. 

Authors: صاحب‌خبران - جدیدترین و آخرین اخبار ایران و جهان - علمی-فناوری

آخرین اخبار چند رسانه ای

پیشنهادات امروزمون چیه؟

ads
ads2