Web Analytics Made Easy - Statcounter

خبرگزاری علم و فناوری آنا، در سال‌های اخیر نگرانی‌های زیادی در مورد «قابلیت توضیح‌پذیری» سیستم‌های هوش مصنوعی در میان سیاست‌گذاران و مردم به وجود آمده است. همانطور که هوش مصنوعی پیشرفته‌تر می‌شود و در حوزه‌هایی مانند مراقبت‌های بهداشتی، استخدام، و عدالت کیفری توسعه پیدا می‌کند، برخی از افراد خواستار شفافیت و تفسیرپذیری این سیستم‌ها هستند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

درواقع ترس آنها از این است که ماهیت «جعبه سیاه» مدل‌های یادگیری ماشینی مدرن، آن‌ها را از قابلیت پاسخگویی به مسائل مختلف محروم می‌کند و باعث می‌شود که خطرناک به نظر برسند.

توضیح پذیری هوش مصنوعی چقدر اهمیت دارد؟

در حالی که تمایل به توضیح هوش مصنوعی قابل درک است، اغلب در بیان اهمیت آن اغراق شده است. اینکه چه معیار‌هایی دقیقاً یک سیستم را قابل توضیح می‌کند، همچنان نامشخص است. مهمتر از آن، فقدان قابلیت توضیح‌پذیری لزوما‍ً یک سیستم هوش مصنوعی را غیرقابل اعتماد یا ناامن نمی‌کند.

سازندگان مدل‌های پیشرفته یادگیری عمیق نمی‌توانند به طور کامل بیان کنند که چگونه این مدل‌ها ورودی‌ها را به خروجی تبدیل می‌کنند؛ چرا که پیچیدگی‌های یک شبکه عصبی که بر اساس میلیون‌ها مثال آموزش داده شده است، برای ذهن انسان پیچیده‌تر از آن است که بتواند به طور کامل آن‌‌ها را درک کند. همین موضوع را می‌توان به دیگر فناوری‌های بی‌شماری که هر روز از آنها استفاده می‌کنیم تعمیم داد.

ما انسان‌ها نمی‌توانیم به طور کامل تعاملات مکانیکی کوانتومی، فرآیند‌های تولید شیمیایی یک دارو یا ساخت نیمه هادی‌ها را درک کنیم. درحالی که این موضوع ما را از بهره مندی از دارو‌ها و ریزتراشه‌هایی که با استفاده از این دانش جزئی تولید می‌شوند، باز نمی‌دارد. آنچه ما به آن اهمیت می‌دهیم این است که خروجی‌ها علاوه بر قابل اعتماد بودن در دستیابی به اهداف خود موفق باشند.

بازکردن جعبه سیاه هوش مصنوعی

وقتی نوبت به سیستم‌های هوش مصنوعی پرمخاطب می‌رسد، باید قبل از هر چیز روی آزمایش آنها تمرکز کنیم تا عملکردشان را تأیید کنیم و اطمینان حاصل کنیم که طبق خواسته ما رفتار می‌کنند.

حوزه‌ای نوظهور به نام تفسیرپذیری هوش مصنوعی قصد دارد تا جعبه سیاه یادگیری عمیق را تا حدودی باز کند. تحقیقات در این زمینه تکنیک‌هایی را برای شناسایی ویژگی‌های ورودی در تعیین پیش‌بینی‌های یک مدل برجسته‌تر و برای توصیف چگونگی جریان اطلاعات در لایه‌های یک شبکه عصبی مصنوعی به دست آورده است. با گذشت زمان، تصویر واضح تری از نحوه پردازش این مدل داده‌ها برای رسیدن به خروجی‌ها به دست خواهیم آورد.

با این حال، ما نباید انتظار داشته باشیم که سیستم‌های هوش مصنوعی مانند یک معادله ساده یا تصمیم کاملاً قابل توضیح باشند. قوی‌ترین مدل‌ها احتمالاً همیشه دارای سطحی از پیچیدگی غیرقابل کاهش هستند که این موضوع اشکالی ندارد. بسیاری از دانش‌های بشری ضمنی هستند و به سختی قابل بیان است. یک استاد بزرگ شطرنج نمی‌تواند شهود استراتژیک خود را به طور کامل توضیح دهد و یک نقاش ماهر نمی‌تواند منبع الهام خود را به طور کامل بیان کند. آنچه اهمیت دارد این است که نتایج نهایی تلاش آنها توسط خودشان و دیگران ارزش گذاری شود.

شفافیت یا عملکرد هوش مصنوعی؛ مسئله کدام است؟

هوش مصنوعی که به راحتی توسط انسان قابل تفسیر باشد لزوما از مدلی که فرآیند تولیدات و تصمیمات آن مشخص باشد قوی‌تر یا قابل اعتمادتر نیست. حتی ممکن است بین عملکرد و توضیح پذیری آن توازن وجود داشته باشد.

در نهایت، یک سیستم هوش مصنوعی باید بر اساس تاثیر آن در دنیای واقعی ارزیابی شود. مدل استخدامی که غیرشفاف باشد، اما در پیش‌بینی عملکرد کارکنان دقیق‌تر باشد، به مدل شفاف مبتنی بر قانون که کارگران تنبل را توصیه می‌کند، ترجیح داده می‌شود. یک الگوریتم تشخیص تومور که قابل توضیح نیست، اما با اطمینان بیشتری نسبت به پزشکان سرطان‌ها را تشخیص می‌دهد، ارزش به کارگیری دارد. ما باید تلاش کنیم تا سیستم‌های هوش مصنوعی را در صورت امکان قابل تفسیر کنیم، اما نه به قیمت مزایایی که ارائه می‌کنند.

البته، این بدان معنا نیست که هوش مصنوعی نباید قابلیت پاسخگویی داشته باشد، بلکه توسعه‌دهندگان باید سیستم‌های هوش مصنوعی را به‌طور گسترده آزمایش کنند تا عملکرد آن‌ها را در دنیای واقعی آنها را تأیید کند، و تلاش کنند تا آنها را با ارزش‌های انسانی هماهنگ کنند، به‌ویژه قبل از اینکه آنها را در جهان گسترده‌تر رها کنند. اما ما نباید اجازه دهیم مفاهیم انتزاعی توضیح پذیری به یک حواس پرتی تبدیل شوند، چه رسد به اینکه مانعی برای درک پتانسیل عظیم هوش مصنوعی برای بهبود زندگی ما شوند.

با اقدامات احتیاطی مناسب، یک مدل جعبه سیاه می‌تواند ابزار قدرتمندی برای موفقیت باشد. در پایان، این خروجی است که اهمیت دارد، نه اینکه آیا فرآیندی که خروجی را ارائه می‌کند قابل توضیح است یا خیر.

انتهای پیام/

منبع: آنا

کلیدواژه: هوش مصنوعی یادگیری ماشین شبکه عصبی سیستم های هوش مصنوعی توضیح پذیری طور کامل قابل توضیح جعبه سیاه سیستم ها مدل ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت ana.press دریافت کرده‌است، لذا منبع این خبر، وبسایت «آنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۴۰۱۳۲۰۰۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

آغاز توزیع بیش از ۱۵ هزار جعبه تخم نوغان

به گزارش خبرگزاری صدا وسیمای گیلان؛ عدیل سروی زرگر در گفتگو با خبرنگار صداوسیما گفت: توزیع تخم نوغان در ۱۱ مرکز توسعه‌ی نوغانداری و ۸ اداره‌ی جهاد کشاورزی گیلان آغاز شده است.
وی اضافه کرد: نوغانداران برای دریافت تخم نوغان مورد نیاز خود، هرچه زودتر به مراکز توزیع در سراسر گیلان مراجعه کنند.
رئیس مرکز توسعه‌ی نوغانداری کشور با بیان اینکه پارسال ۱۳ هزار و ۵۰۰ جعبه‌ی تخم نوغان در گیلان توزیع شده بود، افزود:حجم جعبه‌های تخم نوغان امسال ۱۲ درصد بیشتر از پارسال است.
عدیل سروی زرگر قیمت هر جعبه تخم نوغان را ۲۸ هزار تومان اعلام کرد و گفت: این قیمت در سراسر کشور یکسان است.
وی اضافه کرد: سال گذشته هزار و ۷۲۲ تن پیله ی‌تر ابریشم در کشور تولید شد که گیلان با تولید ۵۱۰ تن سهم حدود ۲۹ درصدی این صنعت را به خود اختصاص داد.
رییس مرکز توسعه‌ی نوغانداری کشور همچنین از اتخاذ تدابیر لازم برای افزایش تولید قلمه و نهال درخت توت برای تامین نیاز نوغانداران در سراسر کشور از جمله گیلان خبر داد و افزود: علاوه بر تولید ۱۴۶ هزار اصله نهال توت در شرکت دامپروری سپیدرود، ۸۷۰ هزار قلمه‌ی توت هم درایستگاه‌های منابع طبیعی تولید و در اختیار نوغانداران قرار گرفته است.
رضا صورتی زنجانی، رییس مرکز تحقیقات ابریشم کشور نیز با تشریح روند تولید تخم نوغان در این مرکز گفت: تا سال ۱۴۰۱ حجم تولید تخم نوغان ایرانی تنها ۴ هزار و ۳۰۰ جعبه بود که این رقم پارسال به ۱۰ هزار جعبه افزایش یافت و اکنون برای تولید ۱۵ هزار جعبه ایی هدف گذاری شده است.
به گفته‌ی کارشناسان این حوزه هر ۲ و نیم کیلو پیله ی‌تر یک کیلو پیله‌ی خشک تولید و از هر ۲ و نیم کیلو پیله‌ی خشک هم یک کیلوگرم نخ ابریشم استحصال می‌شود.

دیگر خبرها

  • توضیح تصویری ژابی آلونسو درباره نقش‌هایش در تیم‌های مورینیو و گواردیولا / فیلم
  • بورل: جعبه جنگ جهانی نباید دوباره باز شود
  • کشت خانگی سبزیجات با مایعی غیر قابل آشامیدنی
  • «جعبه سیاه» آدم‌ها رو می‌شود/ چالش‌هایی که گاهی از دست مهمان برنامه در می‌رود
  • فال تاروت برای متولدین ماه‌های مختلف امروز یک‌شنبه ۹ اردیبهشت ۱۴۰۳
  • توضیح مدیر تراکتور در مورد کامنت جنجالی!
  • توضیح گلر جوان پرسپولیس درباره شوت عبدالکریم!
  • آغاز توزیع بیش از ۱۵ هزار جعبه تخم نوغان
  • ببینید | ماجرای اذان عجیب در جعبه سیاه
  • جعبه آماده ۵۰ عددی از کجا بخریم