به گزارش اقتصاد نگار به نقل از ایسنا، متا اعلام کرد که مدلهای خود، با نام «لاما» را در دسترس سازمانهای دولتی و شرکای بخش خصوصی آنها که در زمینه دفاع و امنیت ملی فعالیت میکنند، قرار میدهد. درحالی که این تصمیم با سیاستهای خود متا هم مغایرت دارد، چرا که طبق قوانین این شرکت، استفاده از مدل هوش مصنوعی لاما در فعالیتهای نظامی، جنگ، صنایع هستهای، جاسوسی، تروریسم، قاچاق انسان و سوءاستفاده یا آسیب به کودکان ممنوع است.
طبق گزارشها، استثناهای سیاستی متا فقط محدود به آمریکا نیست و شامل نهادهای امنیت ملی در بریتانیا، کانادا، استرالیا و نیوزیلند نیز میشود. وضعیتی که نشاندهنده شکنندگی روزافزون نرمافزارهای هوش مصنوعی متنباز است.
از طرفی قراردادن مدل هوش مصنوعی لاما در اختیار نهادهای امنیتی و نظامی کشورها به این معناست که اطلاعات کاربران فیسبوک، اینستاگرام، واتساپ و مسنجر که برخی از نسخههای آنها از لاما استفاده میکنند ممکن است به صورت ناخواسته در برنامههای نظامی که در سراسر جهان مشارکت داشته باشد.
لاما چیست و چگونه عمل میکند؟
لاما مجموعهای از مدلهای زبانی بزرگ (مشابه چت جیپیتی) و مدلهای چندحالتی بزرگ است که با دادههای غیر متنی، از جمله صدا و تصویر، کار میکند. شرکت متا، که مالک فیسبوک است، لاما را در رقابت با چت جیپیتی شرکت اپنایآی ارائه کرده است. تفاوت اصلی لاما و چت جیپیتی این است که تمامی مدلهای لاما به عنوان نرمافزار متنباز و رایگان معرفی میشوند. این یعنی هر کسی میتواند کد منبع مدل لاما را دانلود کرده، آن را اجرا و ویرایش کند (در صورتی که سختافزار مناسب را داشته باشد). در مقابل، چت جیپیتی فقط از طریق اپن ایآی قابل دسترسی است.
مؤسسه Open Source Initiative، که مرجع تعریف نرمافزارهای متنباز است، اخیراً استانداردی برای تعیین هوش مصنوعی متنباز منتشر کرده است. این استاندارد «چهار آزادی» را برای طبقهبندی یک مدل به عنوان متنباز مشخص میکند:
– استفاده از سیستم برای هر هدفی، بدون نیاز به کسب مجوز
– مطالعه نحوه کارکرد سیستم و بررسی اجزای آن
– ویرایش سیستم برای هر هدفی، از جمله تغییر در خروجی آن
– بهاشتراکگذاری سیستم با دیگران برای استفاده، با یا بدون تغییرات، برای هر هدفی
درحالی که مدل هوش مصنوعی لاما این شرایط را برآورده نمیکند؛ چراکه استفاده تجاری از آن محدودیتهایی دارد و فعالیتهایی که ممکن است زیانبار یا غیرقانونی باشند، ممنوع شدهاند. همچنین شفافیت لازم درباره دادههای آموزشی لاما وجود ندارد. با این حال، متا همچنان لاما را به عنوان یک نرمافزار متنباز معرفی میکند.
پیوند خطرناک صنعت فناوری و نظامی
شرکت متا تنها شرکت فناوری تجاری نیست که وارد حوزه کاربردهای نظامی هوش مصنوعی شده است. هفته گذشته، شرکت «آنتروپیک» (Anthropic) نیز اعلام کرد که با شرکت پالانتیر “Palantir” (فعال در تحلیل داده) و خدمات وب آمازون همکاری میکند تا دسترسی سازمانهای اطلاعاتی و دفاعی آمریکا به مدلهای هوش مصنوعی خود را فراهم کند.
متا از تصمیم خود برای در اختیار قرار دادن مدل هوش مصنوعی لاما به سازمانهای امنیت ملی آمریکا و پیمانکاران دفاعی حمایت کرده و ادعا میکند که این استفادهها مسئولانه و اخلاقی هستند و به رفاه و امنیت آمریکا کمک میکنند.
در حالی که متا تاکنون شفافیت لازم را در مورد دادههایی که برای آموزش مدل لاما استفاده میکند، ارائه نداده است. اما شرکتهایی که مدلهای هوش مصنوعی تولیدی را توسعه میدهند، اغلب از دادههای ورودی کاربران برای بهبود بیشتر مدلهای خود بهره میگیرند و کاربران نیز هنگام استفاده از این ابزارها اطلاعات شخصی زیادی را به اشتراک میگذارند.
چت جیپیتی و دال-ای امکان عدم جمعآوری دادههای کاربران را فراهم میکنند؛ اما مشخص نیست که مدل لاما نیز چنین امکانی را ارائه میدهد یا خیر. این گزینه برای عدم جمعآوری دادهها هنگام ثبتنام در این خدمات به وضوح نمایش داده نمیشود و مسئولیت آگاهی از آن بر عهده کاربران است. با این حال، بیشتر کاربران ممکن است از محل و نحوه استفاده از مدل هوش مصنوعی لاما آگاه نباشند.
به عنوان مثال، آخرین نسخه لاما ابزارهای هوش مصنوعی موجود در فیسبوک، اینستاگرام، واتساپ و مسنجر را نیز پشتیبانی میکند. هنگامی که کاربران از قابلیتهای هوش مصنوعی در این پلتفرمها استفاده میکنند، در واقع در حال استفاده از لاما هستند.
چالشهای استفاده از مدلهای متن بار در حوزه نظامی
یکی از مزایای نرمافزارهای متنباز، امکان مشارکت و همکاری آزاد در توسعه آنهاست. اما این امر میتواند منجر به ایجاد سیستمهایی منجر شود که به سادگی قابل دستکاری باشند. به عنوان مثال، پس از حمله روسیه به اوکراین در سال ۲۰۲۲، برخی کاربران تغییراتی در نرمافزارهای متنباز ایجاد کردند تا حمایت خود را از اوکراین نشان دهند.
این تغییرات شامل درج پیامهای ضد جنگ و حذف فایلهای سیستمی در رایانههای روسی و بلاروسی بود. این جنبش به نرمافزار اعتراضی یا «پروتستوار» معروف شد.
پیوند نرمافزارهای هوش مصنوعی متنباز با کاربردهای نظامی احتمالاً این شکنندگی را بیشتر میکند، زیرا استحکام نرمافزارهای متنباز به مشارکت جامعه کاربران عمومی بستگی دارد. در مورد مدلهای زبانی بزرگ مانند لاما، این مدلها به تعامل و استفاده عمومی نیاز دارند زیرا طراحی آنها بر اساس یک چرخه بازخورد بین کاربران و سیستم هوش مصنوعی بهبود پیدا میکند.
استفاده مشترک از ابزارهای هوش مصنوعی متنباز بین دو گروه یعنی عموم مردم و نظامیان که نیازها و اهداف متفاوتی دارند، صورت میگیرد، تفاوتی که چالشهای جدیدی را برای هر دو گروه ایجاد خواهد کرد. برای نظامیان، دسترسی آزاد به این معناست که جزئیات عملکرد یک ابزار هوش مصنوعی به راحتی در دسترس است، که این موضوع میتواند منجر به مشکلات امنیتی و آسیبپذیری شود. برای عموم مردم نیز، نبود شفافیت در مورد نحوه استفاده نظامیان از دادههای کاربران میتواند به یک معضل اخلاقی و انسانی تبدیل شود.