کشورهای عضو گروه هفت (G7) در مورد یک آیین‌نامه رفتار داوطلبانه هوش مصنوعی برای شرکت‌هایی که هوش مصنوعی را توسعه می‌دهند، به توافق خواهند رسید تا به کاهش خطرات و مزایای این فناوری کمک کنند.

بر اساس گزارش رویترز (Reuters)، کشورهای صنعتی گروه هفت (G7) قرار است در 30 اکتبر بر سر یک آیین‌نامه رفتاری هوش مصنوعی (AI) برای توسعه‌دهندگان به توافق برسند.

بر اساس این گزارش، این آیین‌نامه دارای 11 نکته است که هدف آن ارتقای «هوش مصنوعی ایمن، قابل‌اعتماد و معتبر در سراسر جهان» و کمک به استفاده از مزایای هوش مصنوعی و در عین حال، رسیدگی و رفع خطرات ناشی از آن است.

این طرح توسط رهبران G7 در ماه سپتامبر تهیه شد. این سازمان می‌گوید که برای “سازمان‌هایی که پیشرفته‌ترین سیستم‌های هوش مصنوعی، از جمله پیشرفته‌ترین مدل‌های پایه و سیستم‌های هوش مصنوعی مولد، را توسعه می‌دهند، راهنمایی داوطلبانه ارائه می‌کند.”

علاوه بر این، پیشنهاد می‌کند که شرکت‌ها باید گزارش‌های مربوط به قابلیت‌ها، محدودیت‌ها، استفاده و سوء‌استفاده از سیستم‌های در حال توسعه را منتشر کنند. کنترل‌های امنیتی قوی برای سیستم‌های مذکور نیز توصیه می‌شود.

کشورهای عضو در G7 شامل کانادا، فرانسه، آلمان، ایتالیا، ژاپن، بریتانیا، ایالات متحده و اتحادیه اروپا هستند.

نشست امسال G7 در هیروشیما، ژاپن، همراه با جلسه‌ای بین همه وزرای دیجیتال و فناوری شرکت‌کننده در 29 و 30 آوریل برگزار شد.

موضوعات تحت پوشش در این نشست شامل فناوری‌های نوظهور، زیرساخت‌های دیجیتال و هوش مصنوعی، با دستور کاری بود که به طور خاص، به هوش مصنوعی قابل‌اعتماد و حکمرانی جهانی هوش مصنوعی اختصاص داده شده بود.

آیین‌نامه رفتاری هوش مصنوعی G7 در حالی ارائه می‌شود که دولت‌ها در سرتاسر جهان در تلاش هستند تا ظهور هوش مصنوعی را با قابلیت‌های مفید و نگرانی‌های آن، دنبال کنند. اتحادیه اروپا یکی از اولین نهادهایی بود که با قانون شاخص هوش مصنوعی اتحادیه اروپا، که اولین پیش‌نویس آن در ماه ژوئن تصویب شد، دستورالعمل‌هایی را وضع کرد.

در 26 اکتبر، سازمان ملل یک کمیته مشورتی 39 نفره را برای رسیدگی به مسائل مربوط به مقررات جهانی هوش مصنوعی تشکیل داد.

دولت چین همچنین مقررات هوش مصنوعی خود را تنظیم کرد که از ماه آگوست شروع شد.

در میان فعالان این صنعت، توسعه‌دهنده چت ربات محبوب هوش مصنوعی ChatGPT، OpenAI، اعلام کرد که قصد دارد یک تیم “آمادگی” تشکیل دهد که طیف وسیعی از خطرات مرتبط با هوش مصنوعی را ارزیابی کند.