ترصد الكاتبة الصحفية سارة ثابت، ثلاثة تحديات أخلاقية تواجهها الشركات التي تعتمد اليوم بشكل متزايد على الذكاء الاصطناعي في عملياتها ومهامها اليومية بمختلف المجالات، كما تقدم خمس نصائح للتعامل بفعالية مع هذه التحديات الأخلاقية؛ مؤكدة أن للشركات أن تستفيد من إمكانيات الذكاء الاصطناعي بشكل مسؤول، مع تقليل المخاطر المرتبطة بالخصوصية والشفافية والتحيز؛ مما يعزز الثقة في التقنية ويحقق نتائج إيجابية على مستوى الأعمال.
وفي مقالها "كيف نواجه التحديات الأخلاقية لاستخدام الذكاء الاصطناعي في قطاع الأعمال؟" بصحيفة "مكة"، تقول "ثابت": إذا علمت أن مجال المبيعات وخدمة العملاء يُتوقع أن تتم إدارة 85% من تفاعلاته دون تدخل بشري بحلول 2025، بفضل الذكاء الاصطناعي؛ فهذا يعكس تسارع التأثير العميق لهذه التكنولوجيا على بيئة الأعمال؛ حيث لم يعد بإمكاننا تجاهل أن العديد من الشركات -إن لم تكن جميعها- تعتمد اليوم بشكل متزايد على الذكاء الاصطناعي في عملياتها ومهامها اليومية بمختلف المجالات.. ووفقًا لتقرير نشرته "فوربس" هذا العام؛ من المتوقع أن تصل قيمة صناعة الذكاء الاصطناعي إلى 407 مليارات دولار بحلول 2027، بعد أن كانت 86.9 مليار دولار في 2022".
وترصد "ثابت" ثلاثة تحديات أخلاقية تواجهها الشركات التي تعتمد على الذكاء الاصطناعي، وتقول: "ومع ذلك فإن هذا الاعتماد المتزايد لا يجلب الفوائد فقط؛ بل يأتي مصحوبًا بتحديات كبيرة، تتصدرها القضايا الأخلاقية المتعلقة باستخدام الذكاء الاصطناعي، مثل الخصوصية، والشفافية، وتحيز الخوارزميات".
في السطور التالية نناقش طبيعة هذه التحديات الأخلاقية وتأثيرها على سير العمل في الشركات.
تمثل قضية الخصوصية تحديًا أساسيًّا؛ حيث تعتمد نماذج عمل الذكاء الاصطناعي على كميات كبيرة من البيانات الشخصية والحساسة؛ لذلك فإن حماية هذه البيانات وضمان استخدامها بشكل مسؤول يُعَد أمرًا بالغ الأهمية لتجنب انتهاك حقوق الأفراد، وحمايتهم من تسرب البيانات أو استخدامها بطرق غير ملائمة.
تُعَد الشفافية واحدةً من التحديات الأخلاقية الكبرى؛ إذ قد لا تكون الشركات على دراية كاملة بكيفية اتخاذ الخوارزميات للقرارات بشكل تفصيلي.
هذا الغموض يؤدي إلى مخاوف متزايدة بشأن استخدام التكنولوجيا وتبعاتها، حيث يصعب على الشركات وعملائها التأكد من مدى عدالة وموضوعية تلك القرارات.
يشير التحيز في الخوارزميات إلى التحيزات غير المقصودة التي قد تنشأ بسبب البيانات المستخدمة في تدريب النماذج.. والذي قد يؤدي إلى قرارات غير عادلة أو تمييزية ضد مجموعات معينة؛ مما يثير تساؤلات حول العدالة والمساواة في استخدام الذكاء الاصطناعي".
وتقدم "ثابت" خمس نصائح للتعامل بفعالية مع هذه التحديات الأخلاقية، وتقول: "وللتعامل بفعالية مع هذه التحديات الأخلاقية، من الضروري أن تتبنى الشركات استراتيجيات مدروسة وممارسات عملية تضمن الاستخدام المسؤول والآمن للذكاء الاصطناعي".
وفيما يلي خمس نصائح عملية يمكن أن تساعد الشركات في تحقيق هذا الهدف في ضوء هذه التحديات:
1- استخدام أدوات وتقنيات لتقليل التحيز: يجب على الشركات التأكد من أن الخوارزميات التي تعتمد على الذكاء الاصطناعي لا تحتوي على تحيزات غير مقصودة بسبب البيانات التي تستخدمها.
يمكن تطبيق أدوات وتقنيات تحليلات متقدمة لفحص البيانات بشكل دوري وتحديد أي تحيزات محتملة.
2- التأكد من الموافقة المسبقة للعملاء: من الضروري أن تحصل الشركات على موافقة صريحة من العملاء قبل جمع بياناتهم الشخصية عبر الذكاء الاصطناعي.
يجب أن يكون العميل على دراية تامة بالكيفية التي يتم بها استخدام بياناته، وأن تكون الشركة ملتزمة باحترام خصوصيته.
3- توفير التدريب المستمر للموظفين: تدريب الموظفين على كيفية التعامل مع الذكاء الاصطناعي بشكل آمن وفعال يُعَد من العوامل الأساسية لنجاح التطبيقات التكنولوجية.
ينبغي أن يشمل التدريب كيفية التعامل مع البيانات، والتأكد من شفافية النظام، وتجنب اتخاذ قرارات قد تكون غير عادلة أو متحيزة.
4- استخدام أدوات تشفير للبيانات: يجب على الشركات أن تضمن أن أي بيانات يتم جمعها باستخدام الذكاء الاصطناعي تكون مشفرة بشكل آمن؛ مما يساهم في حماية خصوصية الأفراد ويحمي البيانات من التسريب.
5- إشراك الفرق القانونية والأخلاقية في التطوير: من المهم أن تكون الفرق القانونية والأخلاقية جزءًا من عمليات تطوير استراتيجيات الذكاء الاصطناعي داخل الشركات، ويمكن لهذه الفرق ضمان أن أنظمة الذكاء الاصطناعي تتوافق مع القوانين المحلية والدولية وتلتزم بالمبادئ الأخلاقية المتوافقة مع سياسة الشركة".
وتنهي "ثابت" قائلة: "باتباع هذه النصائح، يمكن للشركات أن تستفيد من إمكانيات الذكاء الاصطناعي بشكل مسؤول، مع تقليل المخاطر المرتبطة بالخصوصية والشفافية والتحيز؛ مما يعزز الثقة في التقنية، ويحقق نتائج إيجابية على مستوى الأعمال".