//
کدخبر: ۴۳۸۵۶۸ //
ChatGPT |چت جی پی تی

خالق ChatGPT در مسیر ایمنی هوش مصنوعی قدم برمی‌دارد

هوش مصنوعی همان‌قدر که می‌تواند مفید و جذاب باشد، ممکن است برای انسان‌ها خطر ایجاد کند. OpenAI به‌دنبال حل این مشکل است.

خالق ChatGPT در مسیر ایمنی هوش مصنوعی قدم برمی‌دارد
به گزارش فرتاک نیوز،

هوش مصنوعی با سرعت زیادی در حال رشد و پیشرفت است و قطعاً این موضوع می‌تواند جذابیت‌های زیادی داشته باشد و زندگی افراد را ساده‌تر کند. بااین‌حال، درمقابل این فناوری خطرهایی هم دارد که چشم‌پوشیدنی نیست و می‌تواند در آینده‌ی نزدیک باعث ایجاد مشکلات اساسی شود.

شرکت OpenAI به‌خوبی از خطرات هوش مصنوعی اطلاع دارد و حالا چارچوبی را برای کنترل و رسیدگی به ایمنی مدل‌های پیشرفته‌ی خود ارائه کرده است.

یکی از مواردی که در چارچوب OpenAI وجود دارد، به هیئت‌مدیره‌ی شرکت امکان می‌دهد تا تصمیم‌های مختلف مدیران اصلی را بی‌‌اثر کند.

OpenAI

طبق چارچوب جدید، OpenAI تنها درصورتی می‌تواند از جدیدترین فناوری‌های خود استفاده کند که این مدل‌های جدید ازنظر تهدیدهای هسته‌ای و امنیت سایبری بی‌خطر تلقی شوند. شرکت سم آلتمن در حال ایجاد گروه مشاوره‌ای است تا گزارش‌های امنیتی را دریافت کنند و آن‌ها را به‌دست مدیران عالی‌رتبه برسانند.

از انتشار عمومی ChatGPT حدود یک سال می‌گذرد و در این مدت توسعه‌دهندگان هوش مصنوعی و کاربران عادی به‌خوبی متوجه شده‌اند که این فناوری تا چه حد می‌تواند خطرناک باشد.

هوش مصنوعی مولد عملکرد شبیه‌ به انسان در پاسخ‌ به دستورهای متنی دارد و گاهی‌ اوقات حتی خلاقیت از خود نشان می‌دهد. این ممکن است در آینده‌ی نزدیک باعث ایجاد مشکل‌های امنیتی و سایبری شود و زمینه‌ را برای سوءاستفاده‌ی افراد مهیا کند.

بسیاری از رهبران و توسعه‌دهندگان هوش مصنوعی اوایل سال ۲۰۲۳ نامه‌ای سرگشاده امضا کردند و درباره‌ی خطرهای متعدد GPT-4 هشدار دادند و حالا به‌نظر می‌رسد شرکت OpenAI قصد دارد مشکلات احتمالی را به‌حداقل برساند.

 

برای ورود به کانال تلگرام فرتاک نیوز کلیک کنید.
آیا این خبر مفید بود؟
کدخبر: ۴۳۸۵۶۸ //
ارسال نظر
 
اخبار مرتبط سایر رسانه ها
اخبار از پلیکان
اخبار روز سایر رسانه ها
    اخبار از پلیکان