كاسبرسكي تدعو إلى التطبيق والتطوير والاستخدام المسؤول للذكاء الاصطناعي في مجال الأمن السيبراني
دعماً لالتزامها باتباع نهج شفاف ومسؤول خلال تطويرها التقنيات، كشفت شركة كاسبرسكي عن ورقة بيضاء توضح قائمة مبادئها الأخلاقية التي ستلتزم بها خلال تطويرها واستخدامها الأنظمة العاملة بالذكاء الاصطناعي أو تعلم الآلة. فنظراً لدور خوارزميات الذكاء الاصطناعي المتنامي في مجال الأمن السيبراني، توضح هذه المبادئ كيفية ضمان كاسبرسكي لموثوقية تقنياتها القائمة على الذكاء الاصطناعي، وترشد اللاعبين الآخرين في الصناعة نحو تقليص المخاطر المرتبطة باستخدامهم خوارزميات الذكاء الاصطناعي وتعلم الآلة. حيث تناولت كاسبرسكي هذا الموضوع كجزء من منتدى الأمم المتحدة لحوكمة الإنترنت المنعقد حالياً في اليابان ويجمع خبراء عالميين بارزين في مجال حوكمة الإنترنت.
أقرأ أيضا.. كاسبرسكي تطلق برنامجاً تدريبياً جديداً لقادة الأعمال والمديرين التنفيذيين
لا يخفى على أحد أن شركة كاسبرسكي تستخدم خوارزميات تعلم الآلة (أحد فروع الذكاء الاصطناعي) في حلولها منذ ما يقرب من 20 عاماً. حيث مكّنت قوة الذكاء الاصطناعي المدعومة بالخبرات البشرية حلول كاسبرسكي من اكتشاف مجموعة متنوعة من التهديدات الجديدة والتصدي لها كل يوم. إذ يلعب تعلم الآلة دوراً مهماً في أتمتة اكتشاف التهديدات، وتحديد مواقع الخلل، وزيادة دقة التعرف على البرمجيات الخبيثة. لذلك، صاغت كاسبرسكي مبادئ أخلاقية لتطوير واستخدام الذكاء الاصطناعي وتعلم الآلة، وشاركتها بشكل مفتوح مع الصناعة لتحفيز الابتكار وتعزيز الحوار المتعدد لتأكيد استخدام الذكاء الاصطناعي لتحسين العالم للجميع.
طرحت كاسبرسكي ستة مبادئ يجب أن تؤخذ في عين الاعتبار عند تطوير واستخدام الذكاء الاصطناعي وتعلم الآلة، وهي:
- الشفافية؛
- الأمان؛
- التحكم البشري؛
- الخصوصية؛
- الالتزام بأغراض الأمن السيبراني؛
- الانفتاح على الحوار.
يرمز مبدأ الشفافية إلى إيمان كاسبرسكي الراسخ بواجب كل شركة بإبلاغ عملائها عن استخدامها تقنيات الذكاء الاصطناعي وتعلم الآلة في منتجاتها وخدماتها. وتلتزم كاسبرسكي بهذا المبدأ من خلال تطوير أنظمة ذكاء اصطناعي وتعلم آلة مفهومة إلى أقصى حد ممكن، بالإضافة إلى توفير معلومات إلى أصحاب المصالح تشرح طريقة تنفيذ واستخدام حلول كاسبرسكي لتقنيات الذكاء الاصطناعي وتعلم الآلة.
أمّا مبدأ السلامة، فتلتزم كاسبرسكي به عن طريق ممارسة مجموعة واسعة من التدابير الصارمة لضمان جودة أنظمة الذكاء الاصطناعي وتعلم الآلة، ويتضمن ذلك مراجعات أمنية في أنظمة الذكاء الاصطناعي وتعلم الآلة، وخطوات تقليل الاعتماد على مجموعات البيانات الخارجية في تدريب الحلول العاملة بالذكاء الاصطناعي، وتفضيل تقنيات تعلم الآلة السحابية التي تتمتع بالحماية اللازمة بدلاً من تلك المثبتة على أجهزة العملاء.
يشير مبدأ التحكم البشري إلى أهمية معايرة أنظمة الذكاء الاصطناعي وتعلم الآلة عندما يتعلق الأمر بتحليل التهديدات المعقدة، ولا سيما التهديدات المتقدمة المستعصية (APT). ولتوفير حماية فعالة ضد التهديدات المتطورة باستمرار، تلتزم كاسبرسكي بالحفاظ على التحكم البشري كعنصر أساسي في جميع أنظمة الذكاء الاصطناعي وتعلم الآلة لديها.
المبدأ الأخلاقي الأساسي التالي هو ضمان خصوصية الأفراد عند استخدام أنظمة الذكاء الاصطناعي وتعلم الآلة. ونظراً لاعتماد تدريب مثل هذه الأنظمة بشكل كبير على البيانات الضخمة، يجب على الشركات التي تستخدم الذكاء الاصطناعي وتعلم الآلة أن تأخذ خصوصية الأفراد بالحسبان في كل خطوة. من جهتها، تحترم كاسبرسكي خصوصية الأفراد وتطبق عدداً من التدابير الفنية والتنظيمية لحماية كل من بيانات الأفراد وأنظمتها، كما تضمن ممارسة مستخدميها لحقهم في الخصوصية بشكل حقيقي.
يمثل المبدأ الأخلاقي الخامس التزام كاسبرسكي بحصر استخدام أنظمة الذكاء الاصطناعي وتعلم الآلة في الأغراض الدفاعية فقط. حيث تواصل الشركة جهودها لبناء عالم أكثر أماناً وتثبت التزامها بحماية مستخدميها وبياناتهم عبر التركيز حصرياً على التقنيات الدفاعية.
أخيراً، يشير المبدأ الأخير إلى تقبُّل كاسبرسكي للحوار مع جميع أصحاب المصلحة بغرض مشاركة أفضل ممارسات الاستخدام الأخلاقي للذكاء الاصطناعي. وفي هذا الصدد، تؤكد كاسبرسكي استعدادها لإجراء مناقشات مع جميع الأطراف المهتمة، حيث تؤمن شركة كاسبرسكي بأن التعاون المستمر بين جميع أصحاب المصالح هو الطريق الوحيد لتجاوز العقبات وتحفيز الابتكار وفتح آفاق جديدة.
معلقاً على هذه المبادئ، قال الرئيس التقني لشركة كاسبرسكي «أنطون إيفانوف»: «الذكاء الاصطناعي قادر على إفادة صناعة الأمن السيبراني من عدة نواحٍ، مما يعزز المرونة السيبرانية لمجتمعنا. ولكن، مثل أي تقنية أخرى لا تزال في مرحلة مبكرة من تطورها، لا يخلو الذكاء الاصطناعي من المخاطر. وللتعامل مع المخاوف المحيطة بالذكاء الاصطناعي، أصدرت كاسبرسكي مبادئها الأخلاقية لمشاركة أفضل ممارساتها حول تطبيق الذكاء الاصطناعي ودَعت إلى إجراء حوار مفتوح على مستوى الصناعة لوضع مبادئ توجيهية واضحة تحدد ما يجعل تطوير الحلول القائمة على الذكاء الاصطناعي وتعلم الآلة سليماً أخلاقياً.»
قدمت شركة كاسبرسكي مبادئها الأخلاقية هذه كجزء من منتدى حوكمة الإنترنت الذي تنظمه الأمم المتحدة، إذ ينعقد المنتدى في مدينة كيوتو في اليابان بين 8 إلى 12 أكتوبر. ويعد الذكاء الاصطناعي والتقنيات الناشئة موضوعين رئيسيين في نسخة هذا العام من المنتدى، لذا نظمت كاسبرسكي ورشة عمل لمناقشة المبادئ الأخلاقية لتطوير الذكاء الاصطناعي واستخدامه، وطرحت الاعتبارات الفنية والقانونية للمناقشة.
تعد هذه المبادئ الأخلاقية امتداداً لمبادرة كاسبرسكي العالمية للشفافية التي تعزز مبادئ الشفافية والمساءلة بين مزودي الحلول التقنية في سبيل بناء عالم أكثر مرونة وأماناً سيبرانياً. للتعرّف أكثر على مبادرة ومبادئ كاسبرسكي للشفافية، قدم طلباً لزيارة مركز كاسبرسكي للشفافية.