OpenAI، سازنده ChatGPT، در حال تشکیل یک تیم جدید به منظور کاهش «خطرات پتانسیلی» مرتبط با هوش مصنوعی است. این شرکت اعلام کرده که تیم جدید مختص به "ردیابی، ارزیابی، پیشبینی و محافظت" از مسائل ناشی از تقدم هوش مصنوعی خواهد بود.
همانطور که در اعلامیه OpenAI ذکر شده، این تیم نه تنها برای کاهش "خطرات پتانسیلی" مرتبط با هوش مصنوعی فعالیت میکند، بلکه به منظور مقابله با "تهدیدات شیمیایی، بیولوژیکی و رادیولوژیکی" و همچنین "تکثیر خودکار" یا عمل تکراری هوش مصنوعی مشغول به کار خواهد بود. در واقع، تیم جدید OpenAI تمامی جنبههای مرتبط با این تهدیدات را بررسی و راهکاری برای مقابله در نظر گرفته است.
Open AI اظهار داشت :
"معتقدیم که مدلهای پیشتاز هوش مصنوعی، که قابلیتهای بیشتری از مدلهای موجود دارند، میتوانند منجر به بهبود زندگی تمام انسان ها شوند. اما همچنین باید با توجه کافی به خطرات جدیتری که با آنها همراه است بپردازیم."
این تیم توسط "الکساندر مادری"، که پیش از این به عنوان مدیر مرکز یادگیری ماشینی MIT فعالیت میکرد، اداره میشود. OpenAI همچنین اعلام کرده که این تیم یک "سیاست توسعه مبتنی بر ریسک" را تدوین خواهد کرد که به شرکت امکان ارزیابی و نظارت بر مدلهای هوش مصنوعی را میدهد.
"سم آلتمن"، مدیرعامل OpenAI، تاکنون در مورد احتمال وقوع تهدیدات جدی از طریق هوش مصنوعی هشدار داده است. در ماه مه، او به همراه محققان دیگر به صدور بیانیهای با 22 کلمه پرداختند که خواستار توجه به "خطر انقراض توسط هوش مصنوعی" به عنوان یک اولویت جهانی در کنار موارد دیگری مانند بیماریهای واگیر و جنگهای هستهای شد. او همچنین در یک مصاحبه تاکنون اشاره کرده بود که دولتها باید با هوش مصنوعی به عنوان یک "تهدید جدی" مانند سلاحهای هستهای برخورد کنند.
ثبت نظر