عضو وابسته فرهنگستان علوم:

هوش مصنوعی باید اخلاقی، قابل اعتماد و انسان‌محور باشد/ توسعه هوش مصنوعی بدون فلسفه، اقتصاد و چارچوب بندی امکان‌پذیر نیست

هوش مصنوعی باید اخلاقی، قابل اعتماد و انسان‌محور باشد/ توسعه هوش مصنوعی بدون فلسفه، اقتصاد و چارچوب بندی امکان‌پذیر نیست
دکتر حمیدرضا ربیعی، عضو وابسته فرهنگستان علوم، در نشستی تخصصی با محوریت هوش مصنوعی، ضمن ارائه تحلیلی جامع از وضعیت این فناوری در جهان و ایران، بر ضرورت نگاه چندبعدی و رعایت چارچوب‌های فلسفی، اقتصادی و حکمرانی تأکید کرد.
به گزارش روابط عمومی و اطلاع رسانی فرهنگستان علوم، دکتر ربیعی در این نشست که با حضور دکتر مخبر دزفولی رئیس فرهنگستان علوم جمهوری اسلامی ایران برگزار شد، گفت: بدون وجود این چارچوب‌ها هیچ فناوری نمی‌تواند استمرار داشته باشد. متأسفانه بسیاری از اظهار نظرها در مورد هوش مصنوعی، صرفاً بر اساس ترند شدن آن و هایپ رسانه‌ای شکل می‌گیرد، در حالی که این فناوری سال‌ها تحقیق، توسعه و برنامه‌ریزی می‌طلبد و نباید ساده‌انگارانه به آن نگاه کرد.

 

وی با یادآوری فعالیت‌های خود در سال‌های ۱۳۹۳ تا ۱۳۹۶ افزود: در آن سال‌ها فعالیت ما در ایران بیشتر بر مفهوم‌سازی محل کار هوشمند متمرکز بود و حتی در سطح جهانی، هایپ هوش مصنوعی هنوز به اوج نرسیده بود. بنابراین واضح است که توسعه هوش مصنوعی نیازمند زیرساخت‌ها و برنامه‌ریزی دقیق است.

 

ربیعی با تأکید بر ماهیت میان‌رشته‌ای هوش مصنوعی بیان کرد: هوش مصنوعی، به ویژه هوش مصنوعی عمومی، حوزه‌ای است که علوم مختلفی با آن درگیرند؛ از فلسفه که هدف و جهت‌گیری اخلاقی را مشخص می‌کند، تا اقتصاد که راهبردهای سرمایه‌گذاری و بهره‌وری را تعیین می‌کند، و از علوم اجتماعی، علوم کامپیوتر، علم داده، ریاضیات تا علوم اعصاب.

 

این استاد دانشگاه افزود: همه ما به سادگی درباره هوش مصنوعی صحبت می‌کنیم و اظهار نظر می‌کنیم، ولی واقعیت این است که برای پیشروی در دنیا، ملزومات علمی، زیرساختی و مدیریتی لازم است و باید بررسی کنیم آیا مسئولان و جامعه ما به این ملزومات اشراف دارند یا خیر.

 

دکتر ربیعی تأکید کرد: « فناوری هوش مصنوعی عمیقاً با فلسفه، ارزش‌ها و انگیزه‌های اقتصادی گره خورده است. اگر اهداف و فلسفه توسعه روشن نباشد، فعالیت‌ها ممکن است انجام شود اما به نتیجه واقعی نرسد. تاریخ کشور نشان داده است که بسیاری از برنامه‌ها بدون تعیین فلسفه و هدف اقتصادی، ناکارآمد بوده‌اند.

 

وی افزود: در دنیا، سرمایه‌گذاری در هوش مصنوعی تنها در صورتی انجام می‌شود که سود اقتصادی یا مزیت استراتژیک وجود داشته باشد. در طی پنجاه سال گذشته، دو بار سرمایه‌گذاری گسترده انجام شده ولی به دلیل عدم بهره‌وری کافی، پروژه‌ها متوقف شده‌اند؛ این همان چیزی است که اصطلاحاً "زمستان هوش مصنوعی" نامیده می‌شود.

 

دکتر ربیعی همچنین به اهمیت هدف‌گذاری استراتژیک اشاره کرد و گفت: اگر هدف ما از توسعه هوش مصنوعی، تنها رقابت با دنیا باشد و ظرفیت‌ها و زیرساخت‌ها را در نظر نگیریم، نتیجه‌ای حاصل نخواهد شد. اما اگر هدف ما حل مسائل داخلی و ارتقای بهره‌وری باشد، حتی با سرمایه‌گذاری کمتر نیز می‌توانیم موفق باشیم.

 

این عضو فرهنگستان علوم در ادامه افزود: رگولیشن و چارچوب قانونی، پایه و اساس توسعه هوش مصنوعی است. حتی در کشورهای پیشرفته، رگولیشن‌ها برای رعایت اخلاق، امنیت و حفظ حریم خصوصی تدوین شده‌اند. برخی تلاش دارند این مقررات را سبک‌تر کنند تا توسعه فناوری سریع‌تر شود، اما ما نباید از این نکته غفلت کنیم. در حوزه‌های حساس و امنیتی، اعمال رگولیشن دقیق الزامی است.

 

وی اضافه کرد: در آمریکا، دستورالعمل‌های اجرایی متعدد برای امنیت سایبری و هوش مصنوعی وجود دارد و اروپا نیز قوانین سختگیرانه‌ای برای محصولات و پلتفرم‌ها وضع کرده است. این تجربه‌ها می‌تواند برای ما درس‌آموز باشد.

 

دکتر ربیعی تأکید کرد: هوش مصنوعی و سازمان‌ها، رابطه‌ای دوطرفه دارند. برخی فناوری‌ها برای کمک به اهداف حاکمیت و سازمان‌ها طراحی شده‌اند. در ایران، بسیاری از سازمان‌ها هنوز فاقد برنامه راهبردی منسجم هستند و صرف داشتن یک سند کافی نیست. در حالی که سازمان‌های مدرن جهانی، دیجیتال و پلتفرمی شده‌اند، ما هنوز در مرحله ابتدایی هستیم و تلاش برای پیاده‌سازی هوش مصنوعی بدون سازگاری با این منطق، موفقیت‌آمیز نخواهد بود.

 

دکتر ربیعی با تشریح دسته‌بندی‌های هوش مصنوعی گفت: هوش مصنوعی تحلیلی، تحلیل داده‌ها و مدل‌سازی است که ما تا حدی در آن پیشرفت داشته‌ایم. هوش مصنوعی مولد (Generative AI) خلاقیت، نوآوری و توانایی تبدیل دانش از یک حوزه به حوزه دیگر است که هنوز به بلوغ کامل نرسیده است. هوش مصنوعی شناختی، ترکیب یادگیری و استدلال انسانی است که در حال حاضر توسعه آن در مراحل اولیه است.

 

وی افزود: در حوزه‌های خاص، هوش مصنوعی می‌تواند عملکردی بهتر از انسان داشته باشد، مانند تشخیص سرطان سینه در برخی سامانه‌های توسعه‌یافته، اما هنوز قادر نیست جایگزین کامل انسان شود. علت آن محدودیت در استدلال و درک مفهومی است.

 

دکتر ربیعی به محدودیت‌های فناوری اشاره کرد و گفت:  فقدان استدلال واقعی و عقل سلیم در مدل‌های بزرگ، سوگیری داده‌ها و مشکلات تبعیض‌آمیز، ناکارآمدی در مواجهه با داده‌های کم، مصرف انرژی بسیار بالای مراکز پردازشی، چالش در حریم خصوصی و امنیت داده‌ها و مشکلات توصیف‌پذیری و شفافیت از جمله چالش‌های مهم هستند.

 

 وی تأکید کرد: برای حل این چالش‌ها، لازم است روش‌های نمادین مبتنی بر منطق با یادگیری مبتنی بر داده ترکیب شوند و از ایجنت‌های هوش مصنوعی برای تعامل با محیط و پیوند زدن شاخه‌های مختلف هوش استفاده شود

 

دکترربیعی با اشاره به اهمیت اخلاق و شفافیت گفت: هوش مصنوعی قابل اطمینان باید توصیف‌پذیر، مسئولیت‌پذیر و قابل اعتماد باشد. انسان باید در حلقه تصمیم‌گیری حضور داشته باشد. این امر به ویژه در حوزه‌های حساس مانند پزشکی و امنیت حیاتی است. طراحی سیستم‌ها بدون رعایت این اصول، می‌تواند منجر به آسیب‌های جدی شود.

 

دکتر ربیعی در پایان سخنان خود با تأکید بر ضرورت هم‌افزایی علوم گفت: چهار رکن اصلی آینده هوش مصنوعی عبارتند از فلسفه، علم، مهندسی و حکمرانی. توسعه هوش مصنوعی عمومی، تنها بر پایه هوش مصنوعی قابل اطمینان، اخلاقی و حضور انسان در حلقه تصمیم‌گیری ممکن است. ما باید ترکیب روش‌های نمادین و داده‌محور را در سامانه‌های شناختی و هوش مصنوعی عمومی در نظر بگیریم و در مسیر توسعه از قابلیت‌های محاسبات کوانتومی نیز بهره‌مند شویم. با رعایت این اصول، می‌توانیم سامانه‌های هوش مصنوعی موثر، اخلاقی و قابل اعتماد ایجاد کنیم.

 

وی  افزود: ما هنوز در ابتدای راه توسعه هوش مصنوعی قرار داریم، اما با مدیریت صحیح، هدف‌گذاری درست و استفاده از منابع بومی و بین‌المللی، می‌توانیم سرعت پیشرفت خود را افزایش دهیم و نقش کلیدی در توسعه هوش مصنوعی عمومی ایفا کنیم.
چهارشنبه ۲۱ آبان ۱۴۰۴
14:51
آلبوم مرتبط
Loading
تعداد کاراکتر باقیمانده: 500
نظر خود را وارد کنید