جوجل تبيع نصائح أخلاقية لشركات الذكاء الاصطناعي
تعمل شركة جوجل على خدمة من شأنها تقديم نصائح أخلاقية واستشارات للشركات التي تبني حلول الذكاء الاصطناعي.
وتدفع الشركات أموالاً طائلة لموفري الحوسبة السحابية، مثل جوجل ومايكروسوفت وأمازون، لتجنب تشغيل البنية التحتية الرقمية الخاصة بهم.
وسيدعو قسم السحابة في جوجل العملاء قريبًا إلى الاستعانة بمصادر خارجية لشيء ما هو أقل واقعية من وحدات المعالجة المركزية ومحركات الأقراص، الذي يتمثل في الحقوق والخطأ في استخدام الذكاء الاصطناعي.
ووفقًا لتقرير صادر عن مجلة (Wired)، فإن الشركة تدرس إطلاق هذه الخدمة الاستشارية للأخلاقيات بحلول نهاية العام.
ومن المفترض أن تقدم جوجل في البداية نصائح للآخرين حول مهام، مثل اكتشاف التحيز العنصري في أنظمة الرؤية الحاسوبية، أو تطوير إرشادات أخلاقية تحكم مشاريع الذكاء الاصطناعي.
وقد تعرض الشركة على المدى الطويل تدقيق أنظمة الذكاء الاصطناعي للعملاء من أجل النزاهة الأخلاقية، وتحصيل رسوم مقابل المشورة الأخلاقية.
وتحاول عملاقة البحث من خلال تقديم الخدمة الجديدة اختبار كون الصناعة المربحة يمكنها تعزيز أعمالها من خلال تقديم نصائح أخلاقية.
وتحتل الشركة المرتبة الثالثة في سوق الحوسبة السحابية بعد أمازون ومايكروسوفت، وتضع خبرتها في مجال الذكاء الاصطناعي كميزة تنافسية.
وفي حال نجحت المبادرة الجديدة، يمكن ظهور مصطلح جديد يسمى (EaaS)، للأخلاقيات كخدمة، على غرار (SaaS)، للبرامج كخدمة.
وتعلمت جوجل بعض دروس أخلاقيات الذكاء الاصطناعي بالطريقة الصعبة، إذ اعتذرت في عام 2015 وحظرت تطبيق (Photos) الخاص بها من اكتشاف الغوريلا بعد أن أبلغ أحد المستخدمين أن الخدمة قد طبقت هذا التصنيف على صور له مع صديق أسود.
وفي عام 2018، احتج الآلاف من موظفي عملاقة البحث على عقد البنتاغون المسمى (Maven) الذي استخدم تقنية الشركة لتحليل صور المراقبة من الطائرات بدون طيار.
وبعد فترة وجيزة، أصدرت الشركة مجموعة من المبادئ الأخلاقية لاستخدام تقنية الذكاء الاصطناعي الخاصة بها، وقالت: إنها لن تتنافس بعد الآن على مشاريع مماثلة، لكنها لم تستبعد جميع الأعمال الدفاعية.
وفي العام نفسه، أقرت جوجل باختبار نسخة من محرك البحث الخاص بها المصمم للامتثال للرقابة الاستبدادية في الصين، وقالت: إنها لن تقدم تقنية التعرف على الوجه، كما فعل المنافسان مايكروسوفت وأمازون لسنوات، بسبب مخاطر إساءة الاستخدام.
ومن المرجح أن تتضمن الخدمة دورات تدريبية حول موضوعات، مثل كيفية اكتشاف المشكلات الأخلاقية في أنظمة الذكاء الاصطناعي، على غرار تلك المقدمة لموظفي جوجل، وكيفية تطوير وتنفيذ إرشادات أخلاقيات الذكاء الاصطناعي.
ويمكن لجوجل استخدام تركيزها على التحيز الخوارزمي لبناء برامج مفتوحة المصدر لمكافحة التحيز وخوارزميات غير متحيزة.
الاولى نيوز – متابعة