آنچه در این مقاله می خوانید
کشورهای عضو گروه هفت (G7) در مورد یک آییننامه رفتار داوطلبانه هوش مصنوعی برای شرکتهایی که هوش مصنوعی را توسعه میدهند، به توافق خواهند رسید تا به کاهش خطرات و مزایای این فناوری کمک کنند.
بر اساس گزارش رویترز (Reuters)، کشورهای صنعتی گروه هفت (G7) قرار است در 30 اکتبر بر سر یک آییننامه رفتاری هوش مصنوعی (AI) برای توسعهدهندگان به توافق برسند.
بر اساس این گزارش، این آییننامه دارای 11 نکته است که هدف آن ارتقای «هوش مصنوعی ایمن، قابلاعتماد و معتبر در سراسر جهان» و کمک به استفاده از مزایای هوش مصنوعی و در عین حال، رسیدگی و رفع خطرات ناشی از آن است.
این طرح توسط رهبران G7 در ماه سپتامبر تهیه شد. این سازمان میگوید که برای “سازمانهایی که پیشرفتهترین سیستمهای هوش مصنوعی، از جمله پیشرفتهترین مدلهای پایه و سیستمهای هوش مصنوعی مولد، را توسعه میدهند، راهنمایی داوطلبانه ارائه میکند.”
علاوه بر این، پیشنهاد میکند که شرکتها باید گزارشهای مربوط به قابلیتها، محدودیتها، استفاده و سوءاستفاده از سیستمهای در حال توسعه را منتشر کنند. کنترلهای امنیتی قوی برای سیستمهای مذکور نیز توصیه میشود.
کشورهای عضو در G7 شامل کانادا، فرانسه، آلمان، ایتالیا، ژاپن، بریتانیا، ایالات متحده و اتحادیه اروپا هستند.
نشست امسال G7 در هیروشیما، ژاپن، همراه با جلسهای بین همه وزرای دیجیتال و فناوری شرکتکننده در 29 و 30 آوریل برگزار شد.
موضوعات تحت پوشش در این نشست شامل فناوریهای نوظهور، زیرساختهای دیجیتال و هوش مصنوعی، با دستور کاری بود که به طور خاص، به هوش مصنوعی قابلاعتماد و حکمرانی جهانی هوش مصنوعی اختصاص داده شده بود.
آییننامه رفتاری هوش مصنوعی G7 در حالی ارائه میشود که دولتها در سرتاسر جهان در تلاش هستند تا ظهور هوش مصنوعی را با قابلیتهای مفید و نگرانیهای آن، دنبال کنند. اتحادیه اروپا یکی از اولین نهادهایی بود که با قانون شاخص هوش مصنوعی اتحادیه اروپا، که اولین پیشنویس آن در ماه ژوئن تصویب شد، دستورالعملهایی را وضع کرد.
در 26 اکتبر، سازمان ملل یک کمیته مشورتی 39 نفره را برای رسیدگی به مسائل مربوط به مقررات جهانی هوش مصنوعی تشکیل داد.
دولت چین همچنین مقررات هوش مصنوعی خود را تنظیم کرد که از ماه آگوست شروع شد.
در میان فعالان این صنعت، توسعهدهنده چت ربات محبوب هوش مصنوعی ChatGPT، OpenAI، اعلام کرد که قصد دارد یک تیم “آمادگی” تشکیل دهد که طیف وسیعی از خطرات مرتبط با هوش مصنوعی را ارزیابی کند.