شفقنارسانه- شرکت «اوپن‌ای‌آی» که توسعه‌دهنده مدل «چت جی‌پی‌تی» است، نگرانی خود را از احتمال ایجاد وابستگی کاربران به تعاملات با هوش مصنوعی به جای روابط انسانی ابراز کرده است.

به گزارش شفقنارسانه از سیتنا، شرکت «اوپن‌ای‌آی» که توسعه‌دهنده مدل «چت جی‌پی‌تی» است و دفتر مرکزی آن در سانفرانسیسکو قرار دارد، در گزارشی اشاره کرده است که گفتگو با هوش مصنوعی به گونه‌ای که فرد با شخص دیگری صحبت می‌کند، ممکن است کاربران را به اعتماد نادرست به برنامه‌های هوش مصنوعی سوق دهد.

همچنین، کیفیت بالای صدای ادغام شده در نسخه «GPT-4o» از «چت جی‌پی‌تی» ممکن است این تأثیر را تشدید کند.

«اوپن‌ای‌آی» در این گزارش درباره اقدامات امنیتی که روی نسخه ChatGPT-4o از برنامه هوش مصنوعی خود انجام می‌دهد، اعلام کرده است که تکنیک‌های تشبیه به انسان که شامل اختصاص رفتارها و ویژگی‌های انسانی به موجودات غیرانسانی مانند مدل‌های هوش مصنوعی است، ممکن است باعث افزایش این خطر شود.

این شرکت هشدار داده است که «این خطر ممکن است به دلیل قابلیت‌های صوتی GPT-4o افزایش یابد که تعاملات شبیه به انسان با برنامه را تسهیل می‌کند.»

«اوپن‌ای‌آی» همچنین مشاهده کرده است که کاربران به گونه‌ای با هوش مصنوعی صحبت می‌کنند که به روابط مشترک اشاره دارد، مانند ابراز نارضایتی با صدای بلند در مقابل برنامه هوش مصنوعی.

این شرکت تأکید کرده است که این موارد در نگاه اول ممکن است بی‌خطر به نظر برسند، اما نیاز به بررسی دقیق‌تر دارند تا تاثیر بلندمدت این گونه تعاملات معلوم شود.

«اوپن‌ای‌آی» پیش‌بینی کرده است که تعامل اجتماعی با هوش مصنوعی ممکن است کاربران را از مهارت‌ها یا تمایل به ارتباط با انسان‌ها بازدارد.

در گزارش این شرکت همچنین آمده است: «تعامل گسترده با برنامه ممکن است بر استانداردهای اجتماعی تأثیر بگذارد؛ به عنوان مثال، مدل‌های ما با کاربران با تواضع رفتار می‌کنند که به آنها اجازه می‌دهد در هر زمانی مکالمه را قطع کنند و نقش خود را در صحبت کردن بگیرند، این در حالی است که این نوع رفتار در تعاملات انسانی خلاف ادب است، اما در تعامل با هوش مصنوعی مورد انتظار است.»

به گفته «اوپن‌ای‌آی»، توانایی هوش مصنوعی در به‌خاطر سپردن جزئیات در طول مکالمه و انجام وظایف ممکن است باعث شود که مردم بیش از حد به این فناوری متکی شوند.

source

توسط funkhabari.ir