Fintec - التكنولوجيا الماليةالحوكمة والمسؤولية الاجتماعية

أخلاقيات الذكاء الصنعي AI نسخة 2.0 مايكروسوفت

شددت Microsoft زمام الأمور على كل من مطوري الذكاء الاصطناعي والعملاء.
الجديد: قام عملاق التكنولوجيا بمراجعة معيار الذكاء الاصطناعي المسؤول وقيد الوصول إلى بعض قدرات الذكاء الاصطناعي وفقًا لذلك…
تحمل المسؤولية: يهدف التحديث إلى دعم ست قيم أساسية.
المساءلة: يجب على المطورين تقييم كيفية تأثير النظام على المجتمع ، وما إذا كان حلاً صالحًا للمشكلة المرتبطة به ، ومن يتحمل المسؤولية عن النظام وبياناته. يجب تكريس مزيد من التدقيق لمنتجات الذكاء الاصطناعي في المجالات الحساسة اجتماعيًا مثل التمويل أو التعليم أو التوظيف أو الرعاية الصحية أو الإسكان أو التأمين أو الرعاية الاجتماعية.
الشفافية: يجب توثيق الأنظمة بدقة. يجب إعلام المستخدمين بأنهم يتفاعلون مع الذكاء الاصطناعي.
الإنصاف: يجب على المطوّرين تقييم مدى عدالة النظام مع المجموعات الديموغرافية المختلفة والعمل بنشاط لتقليل الاختلافات. يجب على المطورين نشر التفاصيل لتحذير المستخدمين من أي مخاطر يحددونها.
الموثوقية والسلامة: يجب على المطورين تحديد نطاق التشغيل الآمن للنظام والعمل على تقليل حالات الفشل التي يمكن التنبؤ بها. يجب عليهم أيضًا وضع إجراءات للمراقبة المستمرة والمبادئ التوجيهية لسحب النظام في حالة ظهور عيوب غير متوقعة.
الخصوصية والأمان: يجب أن تمتثل الأنظمة لسياسات الخصوصية والأمان الخاصة بالشركة ، مما يضمن إبلاغ المستخدمين عندما تجمع الشركة البيانات منهم وأن المجموعة الناتجة محمية.
الشمولية: يجب أن تمتثل الأنظمة لمعايير الشمولية مثل إمكانية الوصول للأشخاص ذوي الإعاقة.
مواجهة: للامتثال لإرشاداتها الجديدة ، قامت الشركة بتقييد خدمات الذكاء الاصطناعي المقدمة عبر منصة Azure Cloud الخاصة بها.
يجب أن يتقدم العملاء الجدد لخدمات التعرف على الوجوه وتحويل النص إلى كلام للشركة للحصول على حق الوصول.
لم تعد خدمة التعرف على الوجوه تقدم تقديرات للعمر أو الجنس أو العاطفة بناءً على صور الوجوه. سيتمكن العملاء الحاليون من استخدام هذه الإمكانات حتى يونيو 2023.
خلف الأخبار: نشرت Microsoft أول معيار مسؤول للذكاء الاصطناعي في عام 2019 لكنها خلصت إلى أن المسودة الأولية كانت غامضة. يهدف الإصدار الجديد إلى إعطاء المطورين توجيهات أوضح للامتثال. لتحقيق هذه الغاية ، توفر الشركة أيضًا ما يقرب من 20 أداة تهدف إلى مساعدة المطورين في بناء أنظمة ذكاء اصطناعي مسؤولة. على سبيل المثال ، يساعد كتاب HAX Workbook في تسهيل استخدام أنظمة الذكاء الاصطناعي ، ويساعد InterpretML في شرح سلوك النموذج ، وأمن اختبارات الإجهاد Counterfit.
سبب الأهمية: تتخلف اللوائح التنظيمية في الولايات المتحدة وأماكن أخرى عن القلق المتزايد من أن الذكاء الاصطناعي أصبح أكثر قدرة على إحداث الضرر حتى عندما يصبح متورطًا في الحياة اليومية. تمثل تحركات Microsoft الأخيرة جهدًا استباقيًا لمعالجة المشكلة.
نحن نفكر في ذلك: تمت صياغة مئات الإرشادات للتحكم في تطوير الذكاء الاصطناعي. الجهود جديرة بالثناء ، لكن النتائج نادراً ما تكون قابلة للتنفيذ. نثني على Microsoft للعمل على جعل إرشاداتها أكثر وضوحًا ، ونحن متشوقون لمعرفة كيفية أداء معاييرها الجديدة في الممارسة العملية.

Ethical AI 2.0

Microsoft tightened the reins on both AI developers and customers.

What’s new: The tech titan revised its Responsible AI Standard and restricted access to some AI capabilities accordingly.

Taking responsibility: The update is intended to support six core values. 

  • Accountability: Developers should assess how a system will affect society, whether it’s a valid solution to the associated problem, and who bears responsibility for the system and its data. Additional scrutiny should be devoted to AI products in socially sensitive areas like finance, education, employment, healthcare, housing, insurance, or social welfare.  
  • Transparency: Systems should be thoroughly documented. Users should be informed that they are interacting with AI.
  • Fairness: Developers should assess a system’s fairness to different demographic groups and actively work to minimize differences. Developers should publish details to warn users of any risks they identify.
  • Reliability and Safety: Developers should determine a system’s safe operating range and work to minimize predictable failures. They should also establish procedures for ongoing monitoring and guidelines for withdrawing the system should unforeseen flaws arise.
  • Privacy and Security: Systems should comply with the company’s privacy and security policies, ensuring that users are informed when the company collects data from them and that the resulting corpus is protected.
  • Inclusiveness: Systems should comply with inclusiveness standardssuch as accessibility for people with disabilities.

Face off: To comply with its new guidelines, the company limited AI services offered via its Azure Cloud platform. 

  • New customers of the company’s face recognition and text-to-speech services must apply for access. 
  • The face recognition service no longer provides estimates of age, gender, or emotion based on face portraits. Existing customers will be able to use these capabilities until June 2023.

Behind the news: Microsoft published its first Responsible AI Standard in 2019 but concluded that the initial draft was vague. The new version is intended to give developers clearer directions for compliance. To that end,the company also provides nearly 20 tools intended to aid developers in building responsible AI systems. For instance, HAX Workbook helps make AI systems easier to use, InterpretML helps explain model behavior, and Counterfit stress-tests security.
Why it matters: Regulation in the United States and elsewhere lags rising concern that AI is growing more capable of causing harm even as it becomes enmeshed in everyday life. Microsoft’s latest moves represent a proactive effort to address the issue.
We’re thinking: Hundreds of guidelines have been drafted to govern AI development. The efforts are laudable, but the results are seldom actionable. We applaud Microsoft for working to make its guidelines more concrete, and we’re eager to see how its new standards play out in practice. 

Copyright 2023 Kantakji.com - Developed by Kantakji-tech