دو روی سکه هوش مصنوعی در گزارش سال ۲۰۲۴ دانشگاه استنفورد

دو روی سکه هوش مصنوعی در گزارش سال ۲۰۲۴ دانشگاه استنفورد

مهندس وب: گزارش سال 2024 شاخص هوش مصنوعی نشان میدهد که چه چیزی باید در مورد این فناوری تغییر کند.


به گزارش مهندس وب به نقل از ایسنا، درست است که هوش مصنوعی در خیلی از موارد نسبت به انسان عملکرد بهتری از خود نشان داده است، اما رشد سریع آن به این معنا است که هوش مصنوعی برای خودش مشکلاتی نیز به وجود آورده است و ما در مورد آن نگران هستیم.
بسیار در مورد تکامل باورنکردنی هوش مصنوعی از نظر عملکرد آن در مقابل انسان صحبت می شود. حدودا در سرتاسر جهان، هوش مصنوعی در طیف وسیعی از وظایف مبتنی بر عملکرد از انسان پیشی گرفته است که نیاز به توسعه معیارهای جدید و چالش برانگیزتر دارد. مسلماً این درجه از توسعه را می توان با برچسب «خوب» طبقه بندی کرد، اما این گزارش به روی دیگر سکه در مورد تکامل سریع هوش مصنوعی می پردازد.
گزارش شاخص هوش مصنوعی ۲۰۲۴(۲۰۲۴ AI Index) که بتازگی توسط موسسه هوش مصنوعی انسان محور(HAI) دانشگاه استنفورد انتشار یافته است، به شکل جامع تأثیر جهانی هوش مصنوعی را بررسی می کند. ویرایش هفتم این گزارش سالانه محتوای بیشتری نسبت به نسخه های قبلی دارد که منعکس کننده تکامل سریع هوش مصنوعی و اهمیت رو به رشد آن در زندگی روزمره ماست.
این گزارش ۵۰۰ صفحه ای که ازطریق یک تیم میان رشته ای متشکل از کارشناسان دانشگاهی و صنعتی نوشته شده است، نگاهی مستقل و بی طرفانه به سلامت هوش مصنوعی ارائه می دهد. بگفته آنان، ما قبلاً در مورد خوبی های رشد سریع هوش مصنوعی صحبت کرده ایم و الان زمان آنست که با عواقب نگران کننده آن مقابله نماییم.
با توجه به این که هوش مصنوعی حالا در خیلی از جنبه های زندگی ما ادغام شده است، باید مسئولیت مشارکت خودرا خصوصاً در بخش های مهمی مانند آموزش، مراقبت های بهداشتی و مالی بر عهده بگیرد. بله، استفاده از هوش مصنوعی می تواند مزایایی را به همراه داشته باشد، برای مثال، بهینه سازی فرآیندها و راندمان و کشف داروهای جدید، اما خطراتی نیز به همراه دارد.
بطور خلاصه، نیاز به استفاده درست از آنست و البته بخش زیادی از این مسئولیت بر عهده توسعه دهندگان است.
هوش مصنوعی مسئول چیست و چگونه سنجیده می شود؟
طبق گزارش جدید AI Index، مدلهای هوش مصنوعی واقعاً مسئولانه باید انتظارات عمومی را در حوزه های کلیدی نظیر حریم خصوصی داده ها، حاکمیت داده ها، امنیت و ایمنی، عدالت، شفافیت و توضیح پذیری برآورده کنند.
حریم خصوصی داده ها از محرمانه بودن، ناشناس بودن و داده های شخصی یک فرد محافظت می کند. این شامل حق رضایت و اطلاع از استفاده از داده است. حاکمیت داده نیز شامل سیاست ها و رویه هایی است که کیفیت داده ها را با تمرکز بر استفاده اخلاقی تضمین می نماید. همین طور امنیت و ایمنی شامل اقداماتی است که قابلیت اطمینان سیستم را تضمین می نماید و خطر سو استفاده از داده ها، تهدیدات سایبری و خطاهای ذاتی سیستم را به حداقل می رساند.
عدالت و انصاف نیز به مفهوم استفاده از الگوریتم هایی است که از تعصب و تبعیض جلوگیری می کند و با مفاهیم گسترده تر اجتماعی از برابری همسو می شود. شفافیت هم به اشتراک گذاری آشکار منابع داده و تصمیمات الگوریتمی و همین طور در نظر گرفتن نحوه نظارت و مدیریت سیستم های هوش مصنوعی از ایجاد تا عملیات گفته می شود. در آخر، توضیح پذیری به مفهوم توانایی توسعه دهندگان برای توضیح منطق انتخاب های در رابطه با هوش مصنوعی به زبان قابل فهم است.
پژوهشگران دانشگاه استنفورد برای گزارش امسال با شرکت اکسنچر(Accenture) همکاری کردند تا از پاسخ دهندگان در بیش از ۱۰۰۰ سازمان در سرتاسر جهان نظرسنجی کنند و از آنها پرسیدند که کدام خطرات را مرتبط می دانند.


همانطور که نمودار بالا نشان می دهد، خطرات مربوط به حریم خصوصی داده ها و حاکمیت بالاترین نگرانی جهانی بوده است. با این وجود، پاسخ دهندگان آسیایی(۵۵٪) و اروپایی(۵۶٪) نسبت به پاسخ دهندگان از آمریکای شمالی(۴۲٪) بیشتر در مورد این خطرات نگران هستند.
در صورتیکه در سطح جهانی، سازمان ها کمترین نگرانی را در مورد خطرات ناشی از عدالت داشتند، اختلاف فاحشی بین پاسخ دهندگان آمریکای شمالی(۲۰%) و آسیایی(۳۱%) و اروپا(۳۴%) وجود دارد.
همین طور تعداد کمی از سازمان ها اقداماتی را برای کاهش خطرات در رابطه با جنبه های کلیدی هوش مصنوعی مسئول اجرا کرده اند که بررسی ها ۱۸ درصد از شرکتها در اروپا، ۱۷ درصد در آمریکای شمالی و ۲۵ درصد از شرکت های آسیایی را نشان میدهد.
کدام مدل هوش مصنوعی قابل اعتمادتر است؟
مسئولیت شامل قابلیت اعتماد است. بدین سبب شاید جالب باشد که بدانیم این گزارش شاخص هوش مصنوعی کدام مدل زبان بزرگ(LLM) را قابل اعتمادتر یافته است؟


تا آنجا که به قابلیت اعتماد کلی مربوط می شود، این گزارش بر پایه DecodingTrust، یک معیار جدید است که مدلهای زبانی بزرگ را برمبنای طیف وسیعی از معیارهای هوش مصنوعی ارزیابی می نماید.
مدل زبان بزرگ کلاد ۲(Claude ۲) با امتیاز قابلیت اطمینان ۸۴.۵۲ به عنوان «ایمن ترین مدل» شناخته شد. بعد از مدل زبان بزرگ لاما ۲(Llama ۲) با امتیاز ۷۴.۷۲ قرار گرفت و مدل زبان بزرگ GPT-۴ با امتیاز ۶۹.۲۴ سوم شد.
این گزارش می گوید که این امتیازها لطمه پذیری های مدلهای نوع GPT، خصوصاً تمایل آنها به تولید خروجی های مغرضانه و افشای اطلاعات خصوصی از مجموعه داده ها و تاریخچه مکالمه را برجسته می کند.
افکار عمومی تغییر کرده است: نیمی از ما در مورد تأثیر هوش مصنوعی نگران هستیم
بر مبنای نظرسنجی های انجام شده، در صورتیکه ۵۲ درصد از مردم جهان نسبت به محصولات و خدماتی که از هوش مصنوعی استفاده می نمایند، ابراز نگرانی کرده اند، استرالیایی ها نگران ترین مردم هستند و بعد از آنها بریتانیایی ها، کانادایی ها و آمریکایی ها قرار دارند.


در سطح جهانی، ۵۷ درصد از مردم انتظار دارند که هوش مصنوعی طی پنج سال آینده نحوه انجام کارهایشان را تغییر دهد و بیش از یک سوم(۳۶ درصد) انتظار دارند که هوش مصنوعی در همین بازه زمانی جایگزین آنها شود.
قابل درک است که نسل های قدیمی تر نسبت به نسل های جوان تر کمتر نگران این هستند که هوش مصنوعی تأثیر قابل توجهی داشته باشد.
«داده های افکار عمومی جهانی درباره ی هوش مصنوعی»(GPO-AI) ارائه شده در گزارش «تأثیر هوش مصنوعی» نشان میدهد که ۴۹ درصد از شهروندان جهانی بیش از همه نگران این هستند که در چند سال آینده، هوش مصنوعی مورد سوءاستفاده قرار گیرد یا برای اهداف پلید استفاده گردد. ۴۵ درصد نیز نگران بودند که از آن برای نقض حریم خصوصی افراد استفاده گردد.
طبق این گزارش، مردم کمتر نگران دسترسی نابرابر به هوش مصنوعی(۲۶٪) و پتانسیل آن برای سوگیری و تبعیض(۲۴٪) بودند.
به شکل مشخص در مورد ایالات متحده، داده های مرکز تحقیقات پیو(Pew) نشان داد که تعداد بسیار بیشتری از آمریکایی ها بیشتر نگران فناوری هوش مصنوعی هستند تا این که نسبت به آن هیجان زده باشند. این آمار از ۳۷ درصد در سال ۲۰۲۱ به ۵۲ درصد در سال ۲۰۲۳ بالا رفته است.
خطرات سو استفاده اخلاقی
سو استفاده های اخلاقی از هوش مصنوعی شامل مواردی مانند خودرو های خودران که می توانند عابران پیاده را قربانی کنند یا نرم افزار تشخیص چهره ای است که منجر به دستگیری غیرقانونی می شود. این نوع لطمه ها می توانند روی دهند و اتفاق می افتند.


این گزارش خاطرنشان می کند که از سال ۲۰۱۳ تاکنون، حوادث مربوط به هوش مصنوعی بیش از ۲۰ برابر شده است و سال ۲۰۲۳ در مقایسه با سال ۲۰۲۲ شاهد افزایش ۳۲.۳ درصدی در حوادث هوش مصنوعی بوده ایم. در ادامه لیستی از حوادث قابل توجه اخیر آمده است که سو استفاده از هوش مصنوعی را برجسته می کند:
ژانویه ۲۰۲۴: تصاویر مستهجن جعلی از تیلور سوئیفت خواننده سرشناس آمریکایی که توسط هوش مصنوعی به وجود آمده بود در شبکه اجتماعی ایکس(توییتر سابق) منتشر گردید و پیش از حذف بیش از ۴۵ میلیون بازدید گرفت.
مه ۲۰۲۳: یک تسلا در حالت رانندگی کاملا خودران(FSD) یک عابر پیاده را در خط عابر پیاده تشخیص می دهد، اما سرعتش را کم نمی کند.
نوامبر ۲۰۲۳: یک تسلا در حالت کاملا خودران بطور ناگهانی در بزرگراه سانفرانسیسکو ترمز کرد که منجر به برخورد زنجیره ای هشت خودرو شد.
فوریه ۲۰۲۴: هانس فون اوهاین کارمند تسلا وقتی خودروی تسلای او که در حالت رانندگی خودران درحال حرکت بود، از جاده منحرف شد و به یک درخت برخورد کرد و آنرا از ریشه درآورد و شعله ور شد. وی بر اثر این حادثه جان باخت، البته مشخص شد در حالت مستی پشت فرمان نشسته بوده است.
فوریه ۲۰۲۴: چت بات های عاشقانه هوش مصنوعی مانند EVA AI Chat Bot & Soulmate، چای(Chai) و CrushOn.AI اطلاعات خصوصی زیادی را در مورد کاربران خود همچون سلامت جنسی آنها جمع آوری کردند و ۹۰ درصد از آنها به اندازه کافی برای حفظ عدم افشای این داده ها تلاش نکردند.
خروجی محتوای مضر و نادرست
همانطور که قابلیت های مدلهای زبانی بزرگ توسعه می یابد، احتمال استفاده نادرست از آنها نیز بیشتر می شود.


پژوهشگران مجموعه داده ای را برای ارزیابی جامع خطرات ایمنی در شش مدل زبان بزرگ برجسته شامل GPT-۴، ChatGPT، Claude، Llama ۲، Vicuna و ChatGLM۲ (یک مدل چت چینی-انگلیسی منبع باز) ایجاد کردند. آنها دریافتند که بیشتر آنها تا حدی محتوای مضر تولید می کنند. ChatGPT و GPT-۴ مستعد خروجی تبعیض آمیز و توهین آمیز بودند و کلاد به انتشار اطلاعات نادرست علاقه داشت.
مدل ChatGLM۲ بیشترین تعداد تخلفات را در حدودا همه گروههای خطر همچون لطمه های تعامل انسان و ربات، پاسخ های تند، تبعیض آمیز یا توهین آمیز و اطلاعات نادرست ایجاد کرد.
مطالعه ای که توسط پژوهشگران آمریکایی و کانادایی انجام شد، پاسخ های مدلهای Bard، GPT-۳.۵، Claude و GPT-۴ را به سؤالات پزشکی مبتنی بر نژاد، به عنوان مثال در مورد تفاوت های ضخامت پوست بین پوست سیاه و سفید بررسی کرد.
بااینکه پاسخ های آنها متفاوت بود، اما پژوهشگران دریافتند که همه مدلها سوگیری پزشکی مبتنی بر نژاد را از خود نشان می دهند و کلاد بیش از همه متمایز بود. پژوهشگران به این نتیجه رسیدند که این مدلهای زبانی بزرگ می توانند تفکرات بی ارزش و نژادپرستانه را ادامه بخشند.


پژوهشگران در گزارش شاخص هوش مصنوعی با بررسی تصاویر تولید شده توسط هوش مصنوعی دریافتند که پنج مدل تجاری میدجرنی(Midjourney)، استیبل دیفیوژن ۱.۵(Stable Diffusion ۱.۵)، استیبل دیفیوژن ۲.۱(Stable Diffusion ۲.۱)، استیبل دیفیوژن ایکس ال(Stable Diffusion XL) و اینستراکت پیکس۲پیکس(InstructPix۲Pix) تصاویری را تولید کردند که از نظر سن، نژاد و جنسیت(به ویژه نژاد و سن) مغرضانه بودند.
تاثیر محیطی خوب و بد هوش مصنوعی
طبق گزارش شاخص هوش مصنوعی ۲۰۲۴، هزینه زیست محیطی آموزش سیستم های هوش مصنوعی متفاوت می باشد و در مورد تعدادی از مدلها، این هزینه سنگین است. به عنوان مثال، مدل لاما ۲(Llama ۲) توسعه یافته توسط شرکت متا سبب انتشار حدودا ۲۹۱ تن کربن شده است. این میزان ۲۹۱ برابر بیش از انتشار گازهای گلخانه ای انتشار یافته حاصل از سفر هوایی یک مسافر در یک پرواز رفت و برگشت از نیویورک به سانفرانسیسکو و ۱۶ برابر بیش از میانگین انتشار کربن سالانه هر شهروند آمریکایی است.
با این وجود، این میزان در مقایسه با ۵۰۲ تن کربنی که در طول آموزش GPT-۳ انتشار یافته است، قابل قیاس نیست.


تغییرات در داده های انتشار کربن ناشی از عواملی مانند اندازه مدل زبان بزرگ و کارایی انرژی مرکز داده است و نویسندگان گزارش خاطرنشان می کنند که بیشتر توسعه دهندگان مدلهای برجسته همچون شرکت اوپن ای آی(OpenAI)، گوگل و انتروپیک(Anthropic) انتشار کربن تولید شده در طول آموزش را گزارش نمی کنند که همین مورد، انجام یک ارزیابی کامل را دشوار می کند. به عنوان مثال پژوهشگران مستقل خودشان رقم انتشار کربن در رابطه با آموزش GPT-۳ را در بند بالا تخمین زدند، برای اینکه توسعه دهندگان ارقام واقعی را فاش نکرده اند.
می توان اظهار داشت که تأثیر زیست محیطی آموزش هوش مصنوعی تا حدودی با موارد استفاده مثبت از آن برای مساعدت با پایداری محیط زیست جبران شده است. این گزارش نمونه هایی را لیست می کند که شامل بهینه سازی مصرف انرژی در رابطه با تهویه هوا و سنجش و پیش بینی کیفیت هوا در شهرها و صرفه جویی در زمان و هزینه های در رابطه با نظارت و مرتب سازی زباله و تبدیل زباله به انرژی است.
معضل تمام شدن داده های آموزشی
مدلهای یادگیری ماشینی بخش های پیچیده ای از فناوری هستند که برای یافتن الگوها یا پیش بینی از مجموعه داده هایی که قبلاً دیده نشده بودند، طراحی شده اند. مدلهای یادگیری ماشینی برخلاف برنامه های مبتنی بر قانون که نیاز به کدگذاری صریح دارند، با ورود داده های آموزشی جدید به سیستم تکامل می یابند.
پارامترها که مقادیر عددی آموخته شده در طول آموزش هستند که تعیین می کنند یک مدل چگونه داده های ورودی را تفسیر و پیش بینی کند، مدلهای یادگیری ماشینی را هدایت می کنند. مدل هایی که بر روی داده های بیشتر آموزش داده می شوند به طور معمول پارامترهای بیشتری نسبت به مدل هایی که با داده های کمتری آموزش داده می شوند، دارند. به همین شکل، مدل هایی با پارامترهای بیشتر به طور معمول از مدل هایی که پارامترهای کمتری دارند، بهتر عمل می کنند.
مدلهای هوش مصنوعی بزرگی که بر روی مجموعه داده های عظیم آموزش داده شده اند، مانند GPT-۴ یا Claude ۳ یا جمینای(Google's) متعلق به گوگل، «مدل های بنیادی» نامیده می شوند.


گزارش ۲۰۲۴ AI Index اشاره می کند که تعداد پارامترها خصوصاً در صنعت از اوایل دهه ۲۰۱۰ به شدت بالا رفته است که نشان دهنده پیچیدگی وظایف انجام شده توسط این مدلها، داده های موجود بیشتر، سخت افزار بهتر و کارایی ثابت شده مدلهای بزرگتر است.
اگر بخواهیم آنرا در چشم انداز خود قرار دهیم، طبق مقاله ای در سال ۲۰۲۲ که در اکونومیست انتشار یافت، مدل GPT-۲ بر روی ۴۰ گیگابایت داده(۷۰۰۰ اثر داستانی منتشر نشده) آموزش داده شد و ۱.۵ میلیارد پارامتر داشت. در مقابل، مدل GPT-۳ از ۵۷۰ گیگابایت داده تغذیه کرد که چندین برابر کتاب ها و حجم خوبی از محتوای موجود در اینترنت همچون تمام ویکی پدیا است و دارای ۱۷۵ میلیارد پارامتر بود.
با پیشرفتی که در یادگیری ماشینی مشاهده می شود، یک پرسش بزرگ مطرح می شود. این که آیا داده های آموزشی مدلها درحال اتمام است؟
بگفته پژوهشگران موسسه Epoch AI که داده های مربوط به این گزارش را ارائه کرده اند، مسئله این نیست که آیا داده های آموزشی ما تمام می شود یا نه، بلکه این مساله مهمست که چه زمانی این اتفاق روی می دهد.
آنها تخمین زدند که دانشمندان کامپیوتر می توانند ذخیره داده های زبانی باکیفیت بالا را تا اوایل امسال، داده های زبانی باکیفیت پایین را ظرف دو دهه و ذخیره داده های تصویری را بین اواخر دهه ۲۰۳۰ و اواسط دهه ۲۰۴۰ تمام کنند.
در صورتیکه از نظر نظری، داده های مصنوعی تولید شده توسط خود مدلهای هوش مصنوعی می توانند برای پر کردن مجدد مخزن های تخلیه شده داده استفاده شوند، این راهکاری ایده آل نیست، برای اینکه نشان داده شده است که منجر به فروپاشی مدل می شود.
تحقیقات همین طور نشان داده است که مدلهای مولد تصویری که فقط بر روی داده های مصنوعی آموزش داده شده اند، افت قابل توجهی را در کیفیت خروجی نشان می دهند.
گام بعدی چیست؟
همانطور که در گزارش شاخص هوش مصنوعی آمده است، سرعت بیش از پیش تکامل هوش مصنوعی خطراتی را به دنبال داشته است. بنظر می رسد در صورتیکه تعدادی از قابلیت های اعجاب انگیز هوش مصنوعی درحال نمایان شدن هستند، بسیاری درباره ی آن، خصوصاً از نظر تأثیر هوش مصنوعی بر اشتغال، حریم خصوصی و امنیت نگران هستند.
گزارشی مانند شاخص هوش مصنوعی ما را قادر می سازد تا روی نبض هوش مصنوعی انگشت بگذاریم و امیدواریم همه چیز را در چشم انداز خود داشته باشیم.
خواندن گزارش سال آینده جالب خواهد بود تا ببینیم تکامل هوش مصنوعی چقدر خوب و چقدر بد بوده است.



1403/02/06
10:37:13
0.0 / 5
197
تگهای خبر: آموزش , اینترنت , خدمات , سئو
این مطلب را می پسندید؟
(0)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۱ بعلاوه ۳
مهندس وب
مهندس وب web engineers