OpenAI تواجه شكوى جديدة بسبب حب ChatGPT لاختلاق الأشياء - مصر النهاردة

القاهرة 24 0 تعليق ارسل طباعة تبليغ حذف

عزيزي الزائر أهلا وسهلا بك في موقع مصر النهاردة نقدم لكم اليوم OpenAI تواجه شكوى جديدة بسبب حب ChatGPT لاختلاق الأشياء - مصر النهاردة

تعرضت شركة OpenAI لشكوى تتعلق بالخصوصية في النمسا من قبل مجموعة مناصرة تدعى NOYB، والتي تعني "لا شيء من أعمالك". وتزعم الشكوى أن روبوت ChatGPT الخاص بالشركة قدم بشكل متكرر معلومات غير صحيحة عن فرد حقيقي (لم يتم ذكر اسمه في الشكوى لأسباب تتعلق بالخصوصية)، كما ذكرت رويترز. وهذا قد ينتهك قواعد الخصوصية في الاتحاد الأوروبي.

يُزعم أن برنامج الدردشة الآلي قام بإصدار معلومات غير صحيحة عن تاريخ ميلاد الفرد، بدلاً من مجرد القول بأنه لا يعرف إجابة الاستعلام. مثل السياسيين، تحب روبوتات الدردشة التي تعمل بالذكاء الاصطناعي اختلاق الأشياء بثقة، ونأمل ألا نلاحظ ذلك. وتسمى هذه الظاهرة الهلوسة. ومع ذلك، هناك فرق عندما تقوم هذه الروبوتات بتكوين مكونات لوصفة ما، وشيء آخر تمامًا عندما تخترع أشياء عن أشخاص حقيقيين.

وتشير الشكوى أيضًا إلى أن OpenAI رفضت المساعدة في حذف المعلومات الخاطئة، قائلة إنه من المستحيل من الناحية الفنية إجراء هذا النوع من التغيير. عرضت الشركة تصفية البيانات أو حظرها بناءً على مطالبات معينة. تنص سياسة خصوصية OpenAI على أنه إذا لاحظ المستخدمون أن برنامج الدردشة الآلي المدعم بالذكاء الاصطناعي قد أنشأ "معلومات غير دقيقة فعليًا" عنهم، فيمكنهم تقديم "طلب تصحيح"، لكن الشركة تقول إنها "قد لا تكون قادرة على تصحيح عدم الدقة في كل حالة". حسبما أفاد موقع TechCrunch.

وهذا أكبر من مجرد شكوى واحدة، حيث أن ميل برنامج الدردشة الآلية نحو اختلاق الأشياء قد يتعارض مع اللائحة العامة لحماية البيانات (GDPR) في المنطقة، والتي تحكم كيفية استخدام البيانات الشخصية ومعالجتها. يتمتع المقيمون في الاتحاد الأوروبي بحقوق فيما يتعلق بالمعلومات الشخصية، بما في ذلك الحق في تصحيح البيانات الخاطئة. قد يؤدي عدم الالتزام بهذه اللوائح إلى فرض عقوبات مالية خطيرة، تصل إلى أربعة بالمائة من حجم المبيعات السنوية العالمية في بعض الحالات. يمكن للهيئات التنظيمية أيضًا طلب إجراء تغييرات على كيفية معالجة المعلومات.

وقال ماارتجي دي جراف، محامي حماية البيانات في NOYB، في بيان: "من الواضح أن الشركات غير قادرة حاليًا على جعل برامج الدردشة مثل ChatGPT تمتثل لقانون الاتحاد الأوروبي، عند معالجة البيانات المتعلقة بالأفراد". "إذا لم يتمكن النظام من إنتاج نتائج دقيقة وشفافة، فلا يمكن استخدامه لتوليد بيانات حول الأفراد. يجب أن تتبع التكنولوجيا المتطلبات القانونية، وليس العكس.

أثارت الشكوى أيضًا مخاوف بشأن الشفافية من جانب OpenAI، مما يشير إلى أن الشركة لا تقدم معلومات بشأن مصدر البيانات التي تنتجها عن الأفراد أو ما إذا كانت هذه البيانات مخزنة إلى أجل غير مسمى. وهذا له أهمية خاصة عند النظر في البيانات المتعلقة بالأفراد.
مرة أخرى، هذه شكوى مقدمة من مجموعة مناصرة ولم يعلق المنظمون في الاتحاد الأوروبي بعد بطريقة أو بأخرى. ومع ذلك، اعترفت OpenAI في الماضي بأن ChatGPT "يكتب أحيانًا إجابات تبدو معقولة ولكنها غير صحيحة أو لا معنى لها". اتصلت NOYB بهيئة حماية البيانات النمساوية وطلبت من المنظمة التحقيق في هذه المشكلة.

وتواجه الشركة شكوى مماثلة في بولندا، حيث بدأت هيئة حماية البيانات المحلية التحقيق في ChatGPT بعد أن لم يتمكن أحد الباحثين من الحصول على مساعدة OpenAI في تصحيح المعلومات الشخصية الكاذبة. وتتهم هذه الشكوى شركة OpenAI بارتكاب العديد من الانتهاكات للقانون العام لحماية البيانات في الاتحاد الأوروبي، فيما يتعلق بالشفافية وحقوق الوصول إلى البيانات والخصوصية.

هناك أيضا إيطاليا. أجرت هيئة حماية البيانات الإيطالية تحقيقًا في ChatGPT وOpenAI، والذي خلص إلى القول إنها تعتقد أن الشركة قد انتهكت اللائحة العامة لحماية البيانات بطرق مختلفة. يتضمن ذلك ميل ChatGPT إلى اختلاق أشياء مزيفة عن الأشخاص. تم حظر روبوت الدردشة بالفعل في إيطاليا قبل أن تقوم OpenAI بإجراء تغييرات معينة على البرنامج، مثل التحذيرات الجديدة للمستخدمين وخيار إلغاء الاشتراك في استخدام الدردشات لتدريب الخوارزميات. على الرغم من أنه لم يعد محظورًا، إلا أن التحقيق الإيطالي في ChatGPT مستمر.

لم تستجب شركة OpenAI لهذه الشكوى الأخيرة، لكنها استجابت للهجوم التنظيمي الصادر عن هيئة حماية البيانات الإيطالية. وكتبت الشركة: "نريد أن يتعلم الذكاء الاصطناعي الخاص بنا عن العالم، وليس عن الأفراد". "نحن نعمل بنشاط على تقليل البيانات الشخصية في تدريب أنظمتنا مثل ChatGPT، الذي يرفض أيضًا طلبات الحصول على معلومات خاصة أو حساسة عن الأشخاص."

إخترنا لك

أخبار ذات صلة

0 تعليق