گـزیده اخبــار
خانه » اجتماعی » هوش مصنوعی ازنـــگاه فقــــه
هوش مصنوعی ازنـــگاه فقــــه

هوش مصنوعی ازنـــگاه فقــــه

یادداشت نواندیشی :    چنانچه میدانید تربیون نواندیشی منبر نگاه متفاوت با مسائل فلسفی و تاریخی جوامع بشری است که ” انسان ” به عنوان  نائب خدا در زمین محوراصلی این نگاه راتشکیل میدهد در همین راستا است که جهت گیری های این تربیون نیز درحول حوش حضورونقش انسان در تاریخ تکاملی بشرمورد مطالعه قرار میگیرد . به هراندازه ای که انسان به مدارج عالی تکامل دسترسی پیدا میکند انسان ناگزیراست تا برای پذیرش و بکار گیریی آنچه که محصول تکامل انسان است ضوابط حقوقی وضع کند . طبیعی است که فقه معاصر درعصر حاضر باید جوابگویی پرسش های باشد که در این حوزه بوجود می آید . آقای احمد رضا احمد پور ازآنعده روحانیون نواندیشی است که طی مقاله ای تحت عنوان ” هوش مصنوعی مسئولانه از نگاه فقه ” پرداخته است که خدمت تمامی علاقه مندان به این پدیده ای که جدیدأ وارد حیات بشر شده است تقدیم میداریم .

البته در مورد شناخت این روحانی مبارز سخنان جناب محمد جواد اکبرین یکی دیگر از نواندیشان که آخیرأ در پاریس پایتخت کشورفرانسه زندگی میکند و چندین سال قبل با رسانه سبز ایران بیان داشته بود خدمت شما عرضه می گرددوقتی سیستم هوش مصنوعی تصمیمی زیان‌بار می‌گیرد، چه کسی مسئول است؟آیا باید سازنده، کاربر یا خود سیستم هوش مصنوعی را مسئول دانست؟آیا می‌توان به ماشین‌ها اراده و قصد نسبت داد؟آیا باید آنها را به‌مانند عوامل اخلاقی مستقل در نظر گرفت؟در فقه شیعی، مسئولیت (ضمان) بر اساس قواعدی مانند قاعده «اتلاف» [یا تسبیب زیان] و «غَرور» (فریب) تعیین می‌شود. اگر سازنده الگوریتم‌های هوش مصنوعی با طراحی معیوب یا ارائه اطلاعات نادرست، موجب زیان شود، مسئول است.اگر کاربر با استفاده نادرست از سیستم، خسارت وارد کند، مسئولیت با اوست؛ اما اگر تاروپود ترکیبی هوش مصنوعی به‌دلیل عملکرد پیش‌بینی‌ناپذیر خود، زیان به بار آورد، مثلا به‌خاطر انباشت بیش از اندازه داده‌ها و موضوعات، دچار خطا یا توهم دانایی در محاسبات خود شود، مسئله پیچیده‌تر است و چه‌بسا پای قواعد دیگری مانند «تقصیر»، «لاضرر و لاضرار» و «عدم استطاعت» (ناتوانی) و… پیش بیاید. بحث فقاهتی چنین پرسمان‌ها برای فقیهان در دنیای امروز AIها ضروری است و بررسی‌های پژوهشگران و مجتهدان فقیه را طلب می‌کند.سیستم‌های هوش مصنوعی، مانند آینه‌هایی هستند که تعصبات موجود در داده‌های آموزشی خود را بازتاب می‌دهند. اعمال تعصبات انسانی در الگوریتم‌ها می‌توانند تبعیض در تصمیم‌گیری‌های هوش مصنوعی را به‌دنبال داشته باشند و نابرابری‌های اجتماعی از راه تئوری‌پردازی یا توانایی‌های دیجیتالی را تشدید کنند. حال پرسش پیش می‌آید که چگونه می‌توان الگوریتم‌هایی را طراحی کرد که عادلانه و بی‌طرف باشند؟از دیدگاه فقهی، تبعیض و بی‌عدالتی به‌شدت مذموم است. قرآن کریم بر عدالت و برابری انسان‌ها تأکید دارد؛ بنابراین برای رفع تبعیض و تعصب، باید از الگوریتم‌های حساس به عدالت، استفاده کرد و پیوسته پایش عملکرد سیستم‌ها را انجام داد.بسیاری از سیستم‌های هوش مصنوعی، به‌ویژه آنهایی‌که از یادگیری عمیق استفاده می‌کنند، به‌مانند «جعبه سیاه» هستند که درک چگونگی رسیدن آنها به تصمیمی خاص را سخت می‌کند. در نبود چنین شفافیتی، اعتماد به سیستم‌ها کاهش می‌یابد و شناسایی کژی‌های اخلاقی و تعصب‌زدایی‌ها را دشوار می‌کند.آیا می‌توان الگوریتم‌هایی را طراحی کرد که شفاف و توضیح‌پذیر بوده و میان دقت و شفافیت تعادل پیدا کرد؟از نظر فقهی، شفافیت و فهم پذیر بودن تصمیمات، به‌ویژه در امور مهم، حائز اهمیت است. اصل «وجوب بیان» در فقه، بر لزوم روشن و واضح‌بودن احکام و دلایل آنها تأکید دارد؛ بنابراین، کوشش برای افزایش شفافیت سیستم‌های هوش مصنوعی و ارائه توضیحات روشن و دقیق برای تصمیمگیری آنها ضروری است.گرد‌آوری و پردازش حجم عظیمی از داده‌ها با سیستم‌های هوش مصنوعی، نگرانی‌هایی را درباره حریم خصوصی افراد پدید می‌آورد.حفظ حریم خصوصی در فقه اسلامی جایگاه ویژه‌ای دارد. قرآن کریم از تجسس و فاش‌کردن اسرار دیگران نهی می‌کند؛ بنابراین، گرد‌آوری و پردازش داده‌ها با سیستم‌های هوش مصنوعی باید با رعایت کامل حریم خصوصی افراد و با کسب رضایت آگاهانه آنها صورت بگیرد.
با پیشرفت هوش مصنوعی، سیستم‌ها ممکن است به‌طور فزاینده‌ای خودمختار شوند و بدون دخالت انسان تصمیم‌گیری کنند؛ ازاین‌رو درباره کنترل انسان بر فناوری و احتمال خروج سیستم‌ها از کنترل پرسیده می‌شود: آیا می‌توان الگوریتم‌هایی را طراحی کرد که ارزش‌های اخلاقی انسانی را به آن‌ها آموزش داد تا تصمیمات اخلاقی درستی بگیرند؟پاسخ می‌تواند مثبت باشد. فقه و جهان‌بینی اسلامی، انسان را خلیفه خدا و مسئول حفظ و ارتقای ارزش‌های اخلاقی در زمین می‌دانند؛ بنابراین، طراحی سیستم‌های هوش مصنوعی که به‌طور مستقل تصمیم‌های اخلاقی می‌گیرند، باید با احتیاط فراوان و همواره با نظارت و کنترل انسان باشد.مسائل اخلاقی مرتبط با هوش مصنوعی مسئولانه، نه تنها چالش‌های فنی، بلکه پرسش‌های عمیق فلسفی و اجتماعی و فقهی را نیز مطرح می‌کنند. راه حل چنین مسائلی، نیازمند گفت‌وگو و همکاری میان متخصصان رشته‌های مربوط، فقها، سیاست‌گذاران و عموم مردم است. با تدوین اصول اخلاقی و فقهی مناسب، می‌توان مطمئن شد که گسترش و استفاده مسئولانه از هوش مصنوعی، مزایای فراوانی برای بهبود زندگی بشر خواهد داشت.»

جوابی بنویسید

ایمیل شما نشر نخواهد شدخانه های ضروری نشانه گذاری شده است. *

*

بالا