تشکیل تیم جدیدی برای ارزیابی و کاهش خطرات هوش مصنوعی در OpenAI

سی یو وب 1402.08.06 229 1 0

OpenAI، سازنده ChatGPT، در حال تشکیل یک تیم جدید به منظور کاهش «خطرات پتانسیلی» مرتبط با هوش مصنوعی است. این شرکت اعلام کرده که تیم جدید مختص به "ردیابی، ارزیابی، پیش‌بینی و محافظت" از مسائل ناشی از تقدم هوش مصنوعی خواهد بود. 
همانطور که در اعلامیه OpenAI ذکر شده، این تیم نه تنها برای کاهش "خطرات پتانسیلی" مرتبط با هوش مصنوعی فعالیت می‌کند، بلکه به منظور مقابله با "تهدیدات شیمیایی، بیولوژیکی و رادیولوژیکی" و همچنین "تکثیر خودکار" یا عمل تکراری هوش مصنوعی مشغول به کار خواهد بود. در واقع، تیم جدید OpenAI تمامی جنبه‌های مرتبط با این تهدیدات را بررسی و راهکاری برای مقابله در نظر گرفته است.

Open AI اظهار داشت :
"معتقدیم که مدل‌های پیشتاز هوش مصنوعی، که قابلیت‌های بیشتری از مدل‌های موجود دارند، می‌توانند منجر به بهبود زندگی تمام انسان ها شوند. اما همچنین باید با توجه کافی به خطرات جدی‌تری که با آن‌ها همراه است بپردازیم."

این تیم توسط "الکساندر مادری"، که پیش از این به عنوان مدیر مرکز یادگیری ماشینی MIT فعالیت می‌کرد، اداره می‌شود. OpenAI همچنین اعلام کرده که این تیم یک "سیاست توسعه مبتنی بر ریسک" را تدوین خواهد کرد که به شرکت امکان ارزیابی و نظارت بر مدل‌های هوش مصنوعی را می‌دهد.
"سم آلتمن"، مدیرعامل OpenAI، تاکنون در مورد احتمال وقوع تهدیدات جدی از طریق هوش مصنوعی هشدار داده است. در ماه مه، او به همراه محققان دیگر به صدور بیانیه‌ای با 22 کلمه پرداختند که خواستار توجه به "خطر انقراض توسط هوش مصنوعی" به عنوان یک اولویت جهانی در کنار موارد دیگری مانند بیماری‌های واگیر و جنگ‌های هسته‌ای شد. او همچنین در یک مصاحبه تاکنون اشاره کرده بود که دولت‌ها باید با هوش مصنوعی به عنوان یک "تهدید جدی" مانند سلاح‌های هسته‌ای برخورد کنند. 
 


محتوای مرتبط


ثبت نظر


دیدگاه شما

در حال حاضر دیدگاهی برای این محتوا ثبت نشده است