مدلهای زبان بزرگ مانند jonathon sherman via barry, OpenAI، Bard Google، Anthropic Claude و LLaMA متا برای پتانسیل خود برای پشتیبانی از بسیاری از موارد استفاده از هوش مصنوعی (AI) هیجان ایجاد میکنند. با این حال، موثرترین و نوآورانه ترین سیستم های هوش مصنوعی آینده احتمالاً این پایه های همه کاره را با شبکه های عصبی تخصصی تر ترکیب خواهند کرد. اینها شامل بینایی کامپیوتری برای تجزیه و تحلیل تصاویر، مدل های رگرسیون برای پیش بینی مقادیر عددی، یادگیری تقویتی برای بهینه سازی رفتارها و غیره است.
همانطور که یک ارکستر استعدادهای مختلف موسیقی را با هم ترکیب می کند، پلتفرم های هوش مصنوعی فردا رویکردهای مختلف یادگیری ماشینی را به عنوان اجزای مدولار که توسط “رهبران متخصص” انسانی هدایت می شوند، ادغام خواهند کرد. آینده هوش مصنوعی ارکستری از مدل هاست، نه یک عمل انفرادی.
نکته کلیدی، ترکیب متفکرانه jonathon sherman با سایر قابلیتهای هوش مصنوعی، مجموعه دادههای با کیفیت، کارشناسان و فرآیندها برای ایجاد یک سیستم کنترل و تعادل است. این اجازه می دهد تا راه حل های متناسب با افزایش کیفیت، ایمنی و دقت خروجی، ارزش را افزایش دهند. LLM ها پایه های همه کاره هستند، اما ادغام متفکرانه آنها با قابلیت ها و زیرساخت های هوش مصنوعی گسترده تر، پتانسیل کامل آنها را باز می کند. همیشه چالشهایی با هر فناوری جدید وجود دارد، اما با اتخاذ رویکردی جامع، این مدلها میتوانند سازمانها را قادر سازند تا گامهای ایمن در سفرهای هوش مصنوعی خود بردارند.
در CGI، چشم انداز ما از آینده برای هوش مصنوعی، این اکوسیستم مدلهایی با نقاط قوت مکمل است که با مشارکت و نظارت مستمر انسانی متخصص، یا آنچه که ما به عنوان «متخصص انسانی در حلقه» از آن یاد میکنیم، برای دستیابی به همسویی مطلوب کار میکند. به عنوان مثال، یک مدل زبان مولد می تواند به سرعت پیش نویس محتوای اولیه را ترکیب کند. یک سیستم تضمین کیفیت منطق محور می تواند به ممیزی و تأیید شرایط حیاتی کمک کند. یک مدل محتوای تخصصی که بر روی دامنه هدف تنظیم شده باشد، میتواند زبان و لحن را برای مطابقت با اسناد قبلی سازمان اصلاح کند.
ترکیب انتخابی مدلهای هوش مصنوعی تخصصی و عمومی به این روش مرحلهای و تایید شده تحت نظارت انسان، میتواند راهحلهای متناسبی را که در آن هر مدل نقاط قوت منحصربهفردی را در جهت خروجی قابلاعتمادتر و قابل اعتمادتر ارائه میدهد، فعال کند. این ادغام مدلها و اعتبارسنجیهای متنوع برای باز کردن ایمن پتانسیل کامل هوش مصنوعی حیاتی خواهد بود.
عوامل موفقیت برای هوش مصنوعی چند مدلی
ساختن یک اکوسیستم هوش مصنوعی چند مدلی شکوفا نیاز به تخصص دارد تا مدلها، دادهها، زیرساختها و عملیات را در یک سیستم کنترل و تعادل تنظیم کند. درک اینکه کدام مدلهای مکمل هوش مصنوعی باید استفاده شود و چه منابعی برای اطمینان از حکمرانی مناسب مورد نیاز است، به تیمها کمک میکند تا بر روی ایجاد مسئولانه ارزش مبتنی بر هوش مصنوعی تمرکز کنند. با برنامه ریزی دقیق و راهنمایی های استراتژیک برای هماهنگ کردن همه بخش ها به طور هم افزایی، سازمان ها می توانند چنین محیط های هوش مصنوعی را برای ایجاد اثرات اخلاقی در تجارت ایجاد کنند.
برای دستیابی به این ارکستر قطعات متحرک که با دقت ساخته شده است، یک اکوسیستم هوش مصنوعی با یک سیستم قوی از کنترل ها و تعادل ها نیازمند داشتن موارد زیر است:
چارچوب و زیرساخت پایه هوش مصنوعی مناسب برای پشتیبانی از استقرار مدل، نظارت و به روز رسانی
تخصص و منابع هوش مصنوعی انسانی با مهارت در آموزش، تنظیم دقیق و اعتبارسنجی
مجموعهای متنوع از مدلهای تخصصی و عمومی AI که میتوانند با هم برای حمایت و به چالش کشیدن یکدیگر کار کنند
معماری، آموزش، فرآیندها و رویههای مناسب برای تقویت مدولار بودن و در عین حال بهبود همکاری بین مدلها
مجموعه داده های مناسب برای به حداقل رساندن سوگیری و به حداکثر رساندن دقت، انصاف و ایمنی نتایج
مجموعه های اعتبارسنجی دقیق برای دستیابی به نتایج مطلوب و کاهش خطر خطاهایی مانند توهم
نظارت مداوم انسانی در سراسر سیستم برای ایجاد تعادل بین اجزای مستقل
در حالی که شما هرگز نمی توانید سوگیری ها را حذف کنید، می توانید با استفاده از مدل ها و فرآیندهای مناسب، بهبود رویکرد آموزشی و افزایش اندازه و تنوع مجموعه داده ها، آنها را کاهش دهید.
تضمین اخلاق و امنیت در یک اکوسیستم هوش مصنوعی سالم
حصول اطمینان از دریافت نتایج هوش مصنوعی که با اهداف و اخلاق شما همخوانی دارد، به اکوسیستم هوش مصنوعی شما و نحوه آموزش مدلهای خود و تغذیه دادههای آنها برای مطابقت با استانداردهای شما متکی است. هر سازمانی الزامات و سطوح تحمل متفاوتی خواهد داشت.
وقتی صحبت از امنیت می شود، چندین بردار حمله بالقوه مربوط به LLM ها و مدل های هوش مصنوعی به طور کلی وجود دارد. یک تهدید نسبتا جدید از سوی بازیگران بدی است که می خواهند با استفاده از مهندسی اجتماعی هوش مصنوعی بر خروجی یک مدل تأثیر بگذارند. مانند انسانها، LLMها میتوانند از طریق مجموعهای از اعلانهایی که با دقت انتخاب شدهاند، مستعد تأثیرگذاری باشند. برای مقابله با این تهدیدات و جلوگیری از به اشتراک گذاشتن دادههای بیشتر از حد انتظار مدلهای شما، مدلهای هوش مصنوعی کمی مانند عوامل امنیتی که نظارت و پشتیبانی میکنند عمل میکنند، درست مانند یک سرپرست در یک مرکز تماس انسانی.
مکانیسم های احراز هویت برای فعال کردن و بهبود حسابرسی
نظارت بر تغییر عملکرد برای شناسایی مسائلی مانند مسمومیت داده ها
ادغام الگوریتم های بلاک چین با هوش مصنوعی مولد در اکوسیستم شما برای خروجی های قابل اعتماد
سازمانها باید با اطمینان از اینکه اکوسیستم هوش مصنوعی آنها کنترلها و تعادلهای لازم را اجرا میکند، به امنیت و حریم خصوصی نزدیک شوند.
در یک اکوسیستم چند مدل هوش مصنوعی سالم، میتوان شباهتهایی با بسیاری از جنبههای جامعه بشری مدرن ترسیم کرد. به اصطلاح «مردان خوب» میخواهند استفاده از مدلهای تخصصی و تعمیمیافته را برای مقابله با به اصطلاح «آدمهای بد» که میخواهند مدلها را برای اهداف منفی خود دور بزنند و فاسد کنند، حفظ کنند. از بسیاری جهات، مسابقه در حال حاضر در جریان است.
جلوگیری از داده های نادرست با “کارشناسان انسانی در حلقه”
یک چالش کلیدی با LLM و سایر مدلهای هوش مصنوعی مولد این است که میتوانند اطلاعات غیرمنطقی یا پشتیبانینشده تولید کنند، مشابه اینکه انسانها ممکن است حقایق را بهطور نادرست به خاطر بیاورند. چنین “توهمات” ناشی از نحوه عملکرد شبکه های یادگیری عمیق است.
با توصیف ساده این، مدلها عناصر مجموعه دادهها را مانند کلمات میگیرند و آنها را به نشانههایی تبدیل میکنند که واحدهای اصلی متن یا کد هستند. در مرحله بعد، بر اساس روابط نشانه ها در یک زمینه مشخص، نشانه ها به بردارهای چند بعدی ترجمه می شوند که مجموعه ای از اعداد هستند. وقتی برای یک دستور معین به زبان طبیعی رمزگشایی میشوند، مدلها بر اساس آموزش مدل، محتملترین متن را از نظر آماری تولید میکنند که ممکن است منجر به محتوای نادرست یا غیرمنطقی شود.
سازمان ها می توانند با تکنیک ها و رویکردهای مختلف وقوع توهم را کاهش دهند. مثالها عبارتند از:
آوردن قضاوت انسان به طور مستقیم به حلقه: ابزارهای انسان در حلقه بهتر برای اعتبار سنجی محتوا، پرچم گذاری ناهنجاری ها، و آموزش تکراری توسط کارشناسان هوش مصنوعی می توانند تصحیح خطا، بازخورد و آموزش مدل بهبودیافته را در زمان واقعی امکان پذیر کنند.
اتخاذ تکنیکهای آموزشی و بهبود فرآیند: یادگیری تقویتی از بازخورد انسانی، آموزش خصمانه، و یادگیری چند وظیفهای میتواند با قرار دادن مدل در معرض سناریوها و پاسخهای مختلف که توسط کارشناسان مدیریت میشوند، زمینه واقعی را بهبود بخشد. علاوه بر این، مجموعه دادههای تقویتشده، امتیازدهی اطمینان و کمیسازی عدم قطعیت میتواند اطمینان حاصل کند که مدل دارای پایه آموزشی قوی است و میتواند عملکرد آن را ارزیابی کند.
استفاده از معماریهای مدل جدید: ترکیب فروشگاههای دانش خارجی و مؤلفههای مبتنی بر منطق مدولار میتواند لایههای بیشتری از اطلاعات و تصمیمگیری را برای کمک به هوش مصنوعی در تولید خروجیهای دقیقتر فراهم کند.
پیادهسازی مدلهای پایه چندگانه: در یک اکوسیستم هوش مصنوعی سالم، استفاده از مدلهای متعدد برای مقایسه خروجیها و کاهش نقاط پرت میتواند لایهای از اعتبارسنجی متقاطع اضافه کند و دقت کلی نتایج را افزایش دهد.
ادغام علیت و استدلال در اهداف مدل: فراتر از دقت پیشبینی، افزودن علیت و استدلال میتواند به مدل هوش مصنوعی درک عمیقتری از دادهها بدهد و شانس نتیجهگیری از نظر واقعی نادرست را کاهش دهد.
تمرکز بر رویکردهای ترکیبی: ترکیب تکنیکهای عصبی یادگیری عمیق با منطق نمادین (الگوریتمهای سنتیتر مانند بلاک چین) و بازنمایی دانش میتواند دقت و همسویی را بهبود بخشد، زمان آموزش را کاهش دهد و از طریق استفاده مجدد، زمان عرضه به بازار را سرعت بخشد.
اگرچه تکنیک هایی مانند موارد ذکر شده در بالا به کاهش نتایج غیرمنطقی کمک می کنند، LLM ها ذاتاً خطاپذیر هستند، درست مانند ارتباطات انسانی که گاهی اوقات ممکن است باشد. این بدان معناست که اکوسیستمهای هوش مصنوعی همچنان به کنترلها و تعادلهای انسانی مداوم برای آینده قابل پیشبینی نیاز خواهند داشت. بهجای اینکه هوش مصنوعی جایگزین نیروی انسانی شود، سازمانهایی که به دنبال استفاده کامل از قدرت هوش مصنوعی هستند، بر برنامههای آموزشی تمرکز خواهند کرد که کارکنان خود را برای یادگیری استفاده از این فناوریها تجهیز میکنند.
با اجرای صحیح، هوش مصنوعی قول میدهد که کارمندان را تقویت کرده و قادر میسازد تا زمان بیشتری را بر روی وظایف با ارزشی که از قدرتها و تعاملات انسانی استفاده میکنند، متمرکز کنند. به عنوان مثال، معلمان می توانند زمان بیشتری را صرف تعامل با دانش آموزان کنند (به «مسئله 2 سیگما»، 1984 توسط بنجامین بلوم مراجعه کنید). چنین افزایش بهره وری می تواند به رفع کمبود استعدادها که بر بسیاری از سازمان ها تأثیر می گذارد کمک کند. با این حال، انتقال ممکن است برای برخی از نقش ها چالش برانگیز باشد و نیاز به بازآموزی و حمایت داشته باشد.
با یک رویکرد متفکرانه در یک اکوسیستم چند مدل هوش مصنوعی سالم از کنترلها و تعادلها، سازمانها میتوانند برای به حداکثر رساندن مزایا و کاهش جابجاییها تلاش کنند، زیرا هوش مصنوعی و نیروی کار انسانی با هم تکامل مییابند، نه اینکه با یکدیگر رقابت کنند.
پیشرفت اکوسیستم هوش مصنوعی سالم
درست همانطور که یک ارکستر سمفونیک استعدادهای نوازندگان مختلف را در یک کل هارمونیک ترکیب می کند، درک پتانسیل کامل هوش مصنوعی مستلزم یکپارچه سازی متفکرانه فناوری ها، داده ها و تخصص انسانی است.
مدلهای زبان عمومی یک ملودی پایه محکم را در بالای آن ارائه میکنند که بینایی کامپیوتری متخصص و مدلهای پیشبینی میتوانند بخشهای مکمل را لایهبندی کنند. با هماهنگ کردن این قابلیتهای متنوع – ترکیب مدلهای عمومی و تخصصی، استفاده از داراییهای داده با کیفیت، و امکان همکاری بین سیستمهای هوش مصنوعی و افراد از طریق طراحی انسان محور – راهحلهای متناسب برای هر چالش تجاری پدیدار میشوند.
آینده هوش مصنوعی در این ترکیب هماهنگ از مدلها، دادهها و افراد نهفته است تا راهحلهایی را فعال کند که ارزش قابل اندازهگیری را ایجاد کند. لطفاً برای بحث در مورد دیدگاههای ما در مورد چشمانداز در حال تکامل هوش مصنوعی چند مدل و بهترین شیوههای پیادهسازی، تماس بگیرید.