مدل‌های زبان بزرگ مانند jonathon sherman via barry, OpenAI، Bard Google، Anthropic Claude و LLaMA متا برای پتانسیل خود برای پشتیبانی از بسیاری از موارد استفاده از هوش مصنوعی (AI) هیجان ایجاد می‌کنند. با این حال، موثرترین و نوآورانه ترین سیستم های هوش مصنوعی آینده احتمالاً این پایه های همه کاره را با شبکه های عصبی تخصصی تر ترکیب خواهند کرد. اینها شامل بینایی کامپیوتری برای تجزیه و تحلیل تصاویر، مدل های رگرسیون برای پیش بینی مقادیر عددی، یادگیری تقویتی برای بهینه سازی رفتارها و غیره است.

همانطور که یک ارکستر استعدادهای مختلف موسیقی را با هم ترکیب می کند، پلتفرم های هوش مصنوعی فردا رویکردهای مختلف یادگیری ماشینی را به عنوان اجزای مدولار که توسط “رهبران متخصص” انسانی هدایت می شوند، ادغام خواهند کرد. آینده هوش مصنوعی ارکستری از مدل هاست، نه یک عمل انفرادی.

نکته کلیدی، ترکیب متفکرانه jonathon sherman با سایر قابلیت‌های هوش مصنوعی، مجموعه داده‌های با کیفیت، کارشناسان و فرآیندها برای ایجاد یک سیستم کنترل و تعادل است. این اجازه می دهد تا راه حل های متناسب با افزایش کیفیت، ایمنی و دقت خروجی، ارزش را افزایش دهند. LLM ها پایه های همه کاره هستند، اما ادغام متفکرانه آنها با قابلیت ها و زیرساخت های هوش مصنوعی گسترده تر، پتانسیل کامل آنها را باز می کند. همیشه چالش‌هایی با هر فناوری جدید وجود دارد، اما با اتخاذ رویکردی جامع، این مدل‌ها می‌توانند سازمان‌ها را قادر سازند تا گام‌های ایمن در سفرهای هوش مصنوعی خود بردارند.

در CGI، چشم انداز ما از آینده برای هوش مصنوعی، این اکوسیستم مدل‌هایی با نقاط قوت مکمل است که با مشارکت و نظارت مستمر انسانی متخصص، یا آنچه که ما به عنوان «متخصص انسانی در حلقه» از آن یاد می‌کنیم، برای دستیابی به همسویی مطلوب کار می‌کند. به عنوان مثال، یک مدل زبان مولد می تواند به سرعت پیش نویس محتوای اولیه را ترکیب کند. یک سیستم تضمین کیفیت منطق محور می تواند به ممیزی و تأیید شرایط حیاتی کمک کند. یک مدل محتوای تخصصی که بر روی دامنه هدف تنظیم شده باشد، می‌تواند زبان و لحن را برای مطابقت با اسناد قبلی سازمان اصلاح کند.

ترکیب انتخابی مدل‌های هوش مصنوعی تخصصی و عمومی به این روش مرحله‌ای و تایید شده تحت نظارت انسان، می‌تواند راه‌حل‌های متناسبی را که در آن هر مدل نقاط قوت منحصربه‌فردی را در جهت خروجی قابل‌اعتمادتر و قابل اعتمادتر ارائه می‌دهد، فعال کند. این ادغام مدل‌ها و اعتبارسنجی‌های متنوع برای باز کردن ایمن پتانسیل کامل هوش مصنوعی حیاتی خواهد بود.

عوامل موفقیت برای هوش مصنوعی چند مدلی
ساختن یک اکوسیستم هوش مصنوعی چند مدلی شکوفا نیاز به تخصص دارد تا مدل‌ها، داده‌ها، زیرساخت‌ها و عملیات را در یک سیستم کنترل و تعادل تنظیم کند. درک اینکه کدام مدل‌های مکمل هوش مصنوعی باید استفاده شود و چه منابعی برای اطمینان از حکمرانی مناسب مورد نیاز است، به تیم‌ها کمک می‌کند تا بر روی ایجاد مسئولانه ارزش مبتنی بر هوش مصنوعی تمرکز کنند. با برنامه ریزی دقیق و راهنمایی های استراتژیک برای هماهنگ کردن همه بخش ها به طور هم افزایی، سازمان ها می توانند چنین محیط های هوش مصنوعی را برای ایجاد اثرات اخلاقی در تجارت ایجاد کنند.

برای دستیابی به این ارکستر قطعات متحرک که با دقت ساخته شده است، یک اکوسیستم هوش مصنوعی با یک سیستم قوی از کنترل ها و تعادل ها نیازمند داشتن موارد زیر است:

چارچوب و زیرساخت پایه هوش مصنوعی مناسب برای پشتیبانی از استقرار مدل، نظارت و به روز رسانی
تخصص و منابع هوش مصنوعی انسانی با مهارت در آموزش، تنظیم دقیق و اعتبارسنجی
مجموعه‌ای متنوع از مدل‌های تخصصی و عمومی AI که می‌توانند با هم برای حمایت و به چالش کشیدن یکدیگر کار کنند
معماری، آموزش، فرآیندها و رویه‌های مناسب برای تقویت مدولار بودن و در عین حال بهبود همکاری بین مدل‌ها
مجموعه داده های مناسب برای به حداقل رساندن سوگیری و به حداکثر رساندن دقت، انصاف و ایمنی نتایج
مجموعه های اعتبارسنجی دقیق برای دستیابی به نتایج مطلوب و کاهش خطر خطاهایی مانند توهم
نظارت مداوم انسانی در سراسر سیستم برای ایجاد تعادل بین اجزای مستقل
در حالی که شما هرگز نمی توانید سوگیری ها را حذف کنید، می توانید با استفاده از مدل ها و فرآیندهای مناسب، بهبود رویکرد آموزشی و افزایش اندازه و تنوع مجموعه داده ها، آنها را کاهش دهید.

تضمین اخلاق و امنیت در یک اکوسیستم هوش مصنوعی سالم
حصول اطمینان از دریافت نتایج هوش مصنوعی که با اهداف و اخلاق شما همخوانی دارد، به اکوسیستم هوش مصنوعی شما و نحوه آموزش مدل‌های خود و تغذیه داده‌های آنها برای مطابقت با استانداردهای شما متکی است. هر سازمانی الزامات و سطوح تحمل متفاوتی خواهد داشت.

وقتی صحبت از امنیت می شود، چندین بردار حمله بالقوه مربوط به LLM ها و مدل های هوش مصنوعی به طور کلی وجود دارد. یک تهدید نسبتا جدید از سوی بازیگران بدی است که می خواهند با استفاده از مهندسی اجتماعی هوش مصنوعی بر خروجی یک مدل تأثیر بگذارند. مانند انسان‌ها، LLMها می‌توانند از طریق مجموعه‌ای از اعلان‌هایی که با دقت انتخاب شده‌اند، مستعد تأثیرگذاری باشند. برای مقابله با این تهدیدات و جلوگیری از به اشتراک گذاشتن داده‌های بیشتر از حد انتظار مدل‌های شما، مدل‌های هوش مصنوعی کمی مانند عوامل امنیتی که نظارت و پشتیبانی می‌کنند عمل می‌کنند، درست مانند یک سرپرست در یک مرکز تماس انسانی.

مکانیسم های احراز هویت برای فعال کردن و بهبود حسابرسی
نظارت بر تغییر عملکرد برای شناسایی مسائلی مانند مسمومیت داده ها
ادغام الگوریتم های بلاک چین با هوش مصنوعی مولد در اکوسیستم شما برای خروجی های قابل اعتماد
سازمان‌ها باید با اطمینان از اینکه اکوسیستم هوش مصنوعی آنها کنترل‌ها و تعادل‌های لازم را اجرا می‌کند، به امنیت و حریم خصوصی نزدیک شوند.

در یک اکوسیستم چند مدل هوش مصنوعی سالم، می‌توان شباهت‌هایی با بسیاری از جنبه‌های جامعه بشری مدرن ترسیم کرد. به اصطلاح «مردان خوب» می‌خواهند استفاده از مدل‌های تخصصی و تعمیم‌یافته را برای مقابله با به اصطلاح «آدم‌های بد» که می‌خواهند مدل‌ها را برای اهداف منفی خود دور بزنند و فاسد کنند، حفظ کنند. از بسیاری جهات، مسابقه در حال حاضر در جریان است.

جلوگیری از داده های نادرست با “کارشناسان انسانی در حلقه”
یک چالش کلیدی با LLM و سایر مدل‌های هوش مصنوعی مولد این است که می‌توانند اطلاعات غیرمنطقی یا پشتیبانی‌نشده تولید کنند، مشابه اینکه انسان‌ها ممکن است حقایق را به‌طور نادرست به خاطر بیاورند. چنین “توهمات” ناشی از نحوه عملکرد شبکه های یادگیری عمیق است.

با توصیف ساده این، مدل‌ها عناصر مجموعه داده‌ها را مانند کلمات می‌گیرند و آنها را به نشانه‌هایی تبدیل می‌کنند که واحدهای اصلی متن یا کد هستند. در مرحله بعد، بر اساس روابط نشانه ها در یک زمینه مشخص، نشانه ها به بردارهای چند بعدی ترجمه می شوند که مجموعه ای از اعداد هستند. وقتی برای یک دستور معین به زبان طبیعی رمزگشایی می‌شوند، مدل‌ها بر اساس آموزش مدل، محتمل‌ترین متن را از نظر آماری تولید می‌کنند که ممکن است منجر به محتوای نادرست یا غیرمنطقی شود.

سازمان ها می توانند با تکنیک ها و رویکردهای مختلف وقوع توهم را کاهش دهند. مثالها عبارتند از:

آوردن قضاوت انسان به طور مستقیم به حلقه: ابزارهای انسان در حلقه بهتر برای اعتبار سنجی محتوا، پرچم گذاری ناهنجاری ها، و آموزش تکراری توسط کارشناسان هوش مصنوعی می توانند تصحیح خطا، بازخورد و آموزش مدل بهبودیافته را در زمان واقعی امکان پذیر کنند.
اتخاذ تکنیک‌های آموزشی و بهبود فرآیند: یادگیری تقویتی از بازخورد انسانی، آموزش خصمانه، و یادگیری چند وظیفه‌ای می‌تواند با قرار دادن مدل در معرض سناریوها و پاسخ‌های مختلف که توسط کارشناسان مدیریت می‌شوند، زمینه واقعی را بهبود بخشد. علاوه بر این، مجموعه داده‌های تقویت‌شده، امتیازدهی اطمینان و کمی‌سازی عدم قطعیت می‌تواند اطمینان حاصل کند که مدل دارای پایه آموزشی قوی است و می‌تواند عملکرد آن را ارزیابی کند.
استفاده از معماری‌های مدل جدید: ترکیب فروشگاه‌های دانش خارجی و مؤلفه‌های مبتنی بر منطق مدولار می‌تواند لایه‌های بیشتری از اطلاعات و تصمیم‌گیری را برای کمک به هوش مصنوعی در تولید خروجی‌های دقیق‌تر فراهم کند.
پیاده‌سازی مدل‌های پایه چندگانه: در یک اکوسیستم هوش مصنوعی سالم، استفاده از مدل‌های متعدد برای مقایسه خروجی‌ها و کاهش نقاط پرت می‌تواند لایه‌ای از اعتبارسنجی متقاطع اضافه کند و دقت کلی نتایج را افزایش دهد.
ادغام علیت و استدلال در اهداف مدل: فراتر از دقت پیش‌بینی، افزودن علیت و استدلال می‌تواند به مدل هوش مصنوعی درک عمیق‌تری از داده‌ها بدهد و شانس نتیجه‌گیری از نظر واقعی نادرست را کاهش دهد.
تمرکز بر رویکردهای ترکیبی: ترکیب تکنیک‌های عصبی یادگیری عمیق با منطق نمادین (الگوریتم‌های سنتی‌تر مانند بلاک چین) و بازنمایی دانش می‌تواند دقت و همسویی را بهبود بخشد، زمان آموزش را کاهش دهد و از طریق استفاده مجدد، زمان عرضه به بازار را سرعت بخشد.
اگرچه تکنیک هایی مانند موارد ذکر شده در بالا به کاهش نتایج غیرمنطقی کمک می کنند، LLM ها ذاتاً خطاپذیر هستند، درست مانند ارتباطات انسانی که گاهی اوقات ممکن است باشد. این بدان معناست که اکوسیستم‌های هوش مصنوعی همچنان به کنترل‌ها و تعادل‌های انسانی مداوم برای آینده قابل پیش‌بینی نیاز خواهند داشت. به‌جای اینکه هوش مصنوعی جایگزین نیروی انسانی شود، سازمان‌هایی که به دنبال استفاده کامل از قدرت هوش مصنوعی هستند، بر برنامه‌های آموزشی تمرکز خواهند کرد که کارکنان خود را برای یادگیری استفاده از این فناوری‌ها تجهیز می‌کنند.

با اجرای صحیح، هوش مصنوعی قول می‌دهد که کارمندان را تقویت کرده و قادر می‌سازد تا زمان بیشتری را بر روی وظایف با ارزشی که از قدرت‌ها و تعاملات انسانی استفاده می‌کنند، متمرکز کنند. به عنوان مثال، معلمان می توانند زمان بیشتری را صرف تعامل با دانش آموزان کنند (به «مسئله 2 سیگما»، 1984 توسط بنجامین بلوم مراجعه کنید). چنین افزایش بهره وری می تواند به رفع کمبود استعدادها که بر بسیاری از سازمان ها تأثیر می گذارد کمک کند. با این حال، انتقال ممکن است برای برخی از نقش ها چالش برانگیز باشد و نیاز به بازآموزی و حمایت داشته باشد.

با یک رویکرد متفکرانه در یک اکوسیستم چند مدل هوش مصنوعی سالم از کنترل‌ها و تعادل‌ها، سازمان‌ها می‌توانند برای به حداکثر رساندن مزایا و کاهش جابجایی‌ها تلاش کنند، زیرا هوش مصنوعی و نیروی کار انسانی با هم تکامل می‌یابند، نه اینکه با یکدیگر رقابت کنند.

پیشرفت اکوسیستم هوش مصنوعی سالم
درست همانطور که یک ارکستر سمفونیک استعدادهای نوازندگان مختلف را در یک کل هارمونیک ترکیب می کند، درک پتانسیل کامل هوش مصنوعی مستلزم یکپارچه سازی متفکرانه فناوری ها، داده ها و تخصص انسانی است.

مدل‌های زبان عمومی یک ملودی پایه محکم را در بالای آن ارائه می‌کنند که بینایی کامپیوتری متخصص و مدل‌های پیش‌بینی می‌توانند بخش‌های مکمل را لایه‌بندی کنند. با هماهنگ کردن این قابلیت‌های متنوع – ترکیب مدل‌های عمومی و تخصصی، استفاده از دارایی‌های داده با کیفیت، و امکان همکاری بین سیستم‌های هوش مصنوعی و افراد از طریق طراحی انسان محور – راه‌حل‌های متناسب برای هر چالش تجاری پدیدار می‌شوند.

آینده هوش مصنوعی در این ترکیب هماهنگ از مدل‌ها، داده‌ها و افراد نهفته است تا راه‌حل‌هایی را فعال کند که ارزش قابل اندازه‌گیری را ایجاد کند. لطفاً برای بحث در مورد دیدگاه‌های ما در مورد چشم‌انداز در حال تکامل هوش مصنوعی چند مدل و بهترین شیوه‌های پیاده‌سازی، تماس بگیرید.