چگونه سازمان‌های جاسوسی در حال آزمایش مدل‌های جدید هوش مصنوعی هستند؟
  • مرداد 8, 1404 ساعت: ۱۹:۳۱
  • شناسه : 97134
    1
    در همان روزی که دونالد ترامپ به‌عنوان رئیس‌جمهور آمریکا سوگند یاد کرد، شرکت چینی DeepSeek یک مدل زبان بزرگ (LLM) در سطح جهانی منتشر کرد. ترامپ این رخداد را "زنگ بیدارباش" توصیف کرد. مارک وارنر، معاون رئیس کمیته اطلاعات سنا، گفت که جامعه اطلاعاتی آمریکا (IC) - متشکل از ۱۸ نهاد و سازمان - «غافلگیر شد».
    پ
    پ

    سال گذشته، دولت بایدن نگران شد که جاسوسان و نظامیان چینی در استفاده از هوش مصنوعی (AI) از آمریکا پیشی بگیرند. به همین دلیل، دستور داد که سازمان‌های اطلاعاتی، پنتاگون، و وزارت انرژی (که مسئول ساخت تسلیحات هسته‌ای است) به‌صورت تهاجمی‌تری با مدل‌های پیشرفته کار کنند و همکاری نزدیکی با آزمایشگاه‌های پیشرو در هوش مصنوعی – به‌ویژه Anthropic، Google DeepMind و OpenAI – داشته باشند.

    در ۱۴ ژوئیه، پنتاگون قراردادهایی تا سقف ۲۰۰ میلیون دلار به هر یک از Anthropic، گوگل، OpenAI و xAI (متعلق به ایلان ماسک، که ربات چت آن اخیراً در نتیجه یک به‌روزرسانی اشتباه، خود را هیتلر معرفی کرده بود) اعطا کرد تا با مدل‌های «عامل‌محور» (agentic) آزمایش‌هایی انجام دهند. این مدل‌ها می‌توانند به نمایندگی از کاربران وظایف پیچیده را به مراحل کوچکتر تقسیم کرده و بر ابزارهایی مانند خودروها یا رایانه‌ها کنترل داشته باشند.

    آزمایشگاه‌های پیشرو در حوزه اطلاعاتی نیز به همان اندازه فعال‌اند که در حوزه نظامی. بخش زیادی از کاربردهای اولیه، مربوط به استفاده از ربات‌های چت LLM برای پردازش داده‌های فوق‌محرمانه است. در ژانویه، مایکروسافت اعلام کرد که ۲۶ محصول رایانش ابری آن برای استفاده در نهادهای اطلاعاتی مجوز دریافت کرده‌اند. در ژوئن، Anthropic از عرضه «Claude Gov» خبر داد که «قبلاً توسط نهادهایی در بالاترین سطح امنیت ملی آمریکا به کار گرفته شده بود». اکنون از این مدل‌ها در همه نهادهای اطلاعاتی ایالات متحده استفاده می‌شود و مدل‌های دیگر آزمایشگاه‌ها نیز رقابت می‌کنند.

    شرکت‌های هوش مصنوعی معمولاً مدل‌های خود را برای نیازهای اطلاعاتی تنظیم می‌کنند. به‌عنوان مثال، مدل عمومی Claude ممکن است اسناد دارای نشانه‌های محرمانه را رد کند، اما Claude Gov به‌گونه‌ای تنظیم شده که چنین محدودیتی نداشته باشد. همچنین این نسخه دارای «تسلط بالاتر» بر زبان‌ها و لهجه‌هایی است که کاربران دولتی ممکن است به آن نیاز داشته باشند. این مدل‌ها معمولاً روی سرورهای امن و خارج از اینترنت عمومی اجرا می‌شوند. اکنون نسل جدیدی از مدل‌های عامل‌محور در درون این نهادها ساخته می‌شود.

    روند مشابهی در اروپا نیز در جریان است. یک منبع بریتانیایی می‌گوید: «در حوزه هوش مصنوعی مولد، تلاش کرده‌ایم که بسیار سریع از مدل‌های پیشرو پیروی کنیم.» وی افزود: «همه افراد در جامعه اطلاعاتی بریتانیا (UKIC) به قابلیت‌های فوق‌محرمانه LLM دسترسی دارند.» شرکت فرانسوی Mistral که تنها بازیگر بزرگ اروپا در این حوزه است، با آژانس نظامی هوش مصنوعی فرانسه (AMIAD) همکاری دارد. مدل Saba متعلق به Mistral با داده‌هایی از خاورمیانه و آسیای جنوبی آموزش داده شده و در نتیجه در زبان‌هایی مانند عربی و زبان‌های منطقه‌ای کوچک‌تری مانند تامیل مهارت دارد. در ژانویه، مجله +972 گزارش داد که استفاده نیروهای مسلح اسرائیل از GPT-4 (پیشرفته‌ترین مدل OpenAI در آن زمان) پس از آغاز جنگ غزه، ۲۰ برابر شده است.

    با وجود همه این تحولات، پیشرفت همچنان کند است. کاترینا مولیگان، مقام سابق دفاعی و اطلاعاتی که اکنون مسئول شراکت‌های OpenAI در این حوزه است، می‌گوید: «پذیرش هوش مصنوعی در حوزه امنیت ملی هنوز به نقطه مطلوب نرسیده است.» به گفته یکی از منابع داخلی، آژانس امنیت ملی آمریکا (NSA) که دهه‌ها در زمینه فناوری‌هایی مانند تشخیص صدا فعالیت کرده، نقطه‌ای موفق در این حوزه است. اما بسیاری از نهادها هنوز می‌خواهند «لایه‌هایی اختصاصی» روی ربات‌های چت موجود بسازند، کاری که معمولاً باعث می‌شود از آخرین مدل‌های عمومی عقب بمانند.

    تارون چابرا، که قبلاً مسئول سیاست‌گذاری فناوری در شورای امنیت ملی بایدن بود و اکنون مسئول سیاست‌گذاری امنیت ملی در Anthropic است، می‌گوید: «نقطه تحول‌آفرین فقط استفاده از آن به‌عنوان یک چت‌بات نیست. موضوع اصلی این است که وقتی شروع به استفاده کردی، باید ببینی چگونه می‌توانی کل مأموریت را بازطراحی کنی.»

    بازی جاسوسی با هوش مصنوعی

    برخی شکاکان معتقدند این امیدها بیش از حد اغراق‌آمیزند. ریچارد کارتر از مؤسسه آلن تورینگ – مؤسسه ملی هوش مصنوعی بریتانیا – می‌گوید آنچه سازمان‌های اطلاعاتی در آمریکا و بریتانیا واقعاً می‌خواهند این است که آزمایشگاه‌ها میزان «توهم‌زایی» مدل‌های فعلی را به‌شدت کاهش دهند.

    به گفته منبع بریتانیایی، آژانس‌های بریتانیا از تکنیکی به نام «تولید تقویت‌شده با بازیابی» (retrieval augmented generation) استفاده می‌کنند؛ یعنی الگوریتمی اطلاعات موثق را یافته و به مدل زبان بزرگ می‌دهد تا خطاها کاهش یابد. دکتر کارتر هشدار می‌دهد: «آنچه در حوزه اطلاعاتی نیاز دارید ثبات، قابلیت اطمینان، شفافیت و توضیح‌پذیری است.» در عوض، آزمایشگاه‌ها بر ساخت مدل‌های پیشرفته‌تر عامل‌محور تمرکز کرده‌اند.

    به‌عنوان نمونه، Mistral در یک ارائه نمایشی به مشتریان بالقوه نشان داده که چگونه می‌توان برای هر جریان اطلاعاتی (مثل تصاویر ماهواره‌ای یا شنود صوتی) یک عامل هوش مصنوعی اختصاص داد تا تصمیم‌گیری سریع‌تر شود. چابرا می‌گوید: «ما به اندازه کافی درباره نحوه استفاده از عوامل هوش مصنوعی در زمینه جنگی فکر نکرده‌ایم.»

    کتر کارتر هشدار می‌دهد که مشکل مدل‌های عامل‌محور این است که آن‌ها به‌صورت بازگشتی خودشان دستورات جدید تولید می‌کنند که باعث غیرقابل پیش‌بینی‌شدن و افزایش خطر خطاهای انباشته می‌شود. مدل عامل‌محور اخیر OpenAI یعنی ChatGPT Agent در حدود ۸٪ از پاسخ‌های خود دچار توهم است، که از مدل قبلی این شرکت یعنی o3 نرخ بالاتری دارد.

    برخی آزمایشگاه‌های هوش مصنوعی این نگرانی‌ها را ناشی از بوروکراسی می‌دانند، اما به گفته دکتر کارتر، این در واقع محافظه‌کاری سالم است: «در GCHQ (معادل بریتانیایی NSA)، مهندسانی فوق‌العاده بااستعداد مشغول‌اند که ذاتاً در برابر فناوری‌های جدید محتاط‌اند.»

    این موضوع به بحث گسترده‌تری نیز مرتبط است: آینده هوش مصنوعی دقیقاً به کجا می‌رود؟ دکتر کارتر معتقد است معماری مدل‌های عمومی فعلی برای استنتاج علت-معلولی طراحی نشده‌اند و توانایی واقعی درک دنیای واقعی را ندارند. او می‌گوید آژانس‌های اطلاعاتی باید بر توسعه نسل جدیدی از مدل‌های استنتاجی تمرکز کنند.

    در مقابل، برخی هشدار می‌دهند که چین ممکن است از آمریکا پیشی بگیرد. فیلیپ راینر از مؤسسه امنیت و فناوری در سیلیکون‌ولی می‌گوید: «ما هنوز درک دقیقی نداریم که چین چگونه و تا چه اندازه از DeepSeek برای رفع شکاف‌های اطلاعاتی و نظامی خود استفاده کرده است.» او می‌افزاید: «احتمالاً آن‌ها مثل ما محدودیت‌های ایمنی سخت‌گیرانه ندارند، و بنابراین ممکن است سریع‌تر به بینش‌های قدرتمند دست یابند.»

    در ۲۳ ژوئیه، دولت ترامپ دستور داد که پنتاگون و نهادهای اطلاعاتی آمریکا به‌طور منظم میزان سرعت پذیرش هوش مصنوعی در نهادهای امنیت ملی را نسبت به رقبا – از جمله چین – ارزیابی کرده و «رویکردی برای سازگاری مداوم» تعیین کنند.

    در این مورد تقریباً همه اتفاق‌نظر دارند. سناتور وارنر می‌گوید که عملکرد جاسوسان آمریکایی در رصد پیشرفت چین «بسیار ضعیف» بوده است: «دسترسی به فناوری و نفوذ در شرکت‌های فناوری چینی هنوز بسیار پایین است.» به گفته مولیگان، بزرگ‌ترین خطر این نیست که آمریکا خیلی زود وارد فناوری شود؛ بلکه این است که وزارت دفاع و جامعه اطلاعاتی همان روش‌های قدیمی را ادامه دهند. او هشدار می‌دهد: «آنچه شب‌ها خواب را از چشمان من می‌گیرد، این است که ممکن است ما در رقابت برای دستیابی به هوش عمومی مصنوعی (AGI) برنده شویم… اما رقابت بر سر پذیرش آن را ببازیم.»

    منبع: انتخاب به نقل از اکونومیست

    ثبت دیدگاه

    • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
    • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
    • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.