4 قضايا الخصوصية الحرجة في عصر الذكاء الاصطناعي

أنت أكثر من مجرد نقطة بيانات. إن إلغاء الاشتراك هنا لمساعدتك في استعادة خصوصيتك.

أحدث موجةلقد أجبر تطور الذكاء الاصطناعي الكثير منا على إعادة التفكير في الجوانب الرئيسية لحياتنا. يحتاج الفنانون الرقميون، على سبيل المثال، الآن إلى التركيز على حماية أعمالهم من مواقع توليد الصور، ويحتاج المعلمون إلى التعامل مع احتمال الاستعانة بمصادر خارجية لبعض طلابهم.كتابة مقال إلى ChatGPT.

لكن طوفان الذكاء الاصطناعي يأتي أيضًا مصحوبًا بمخاطر خصوصية مهمة يجب على الجميع فهمها - حتى لو كنت لا تخطط أبدًا لاكتشاف ما تفكر فيه هذه التكنولوجياستبدو وكأنك شخص عادي.

انعدام الشفافية

يقول: "غالبًا ما نعرف القليل جدًا عن من يستخدم معلوماتنا الشخصية وكيف ولأي أغراض".جيسيكا براندت، مدير السياسات لمبادرة الذكاء الاصطناعي والتكنولوجيا الناشئة فيمعهد بروكينجز، وهي منظمة غير ربحية مقرها واشنطن العاصمة، تجري أبحاثًا تستخدمها لمعالجة مجموعة واسعة من المشكلات الوطنية والعالمية.

بشكل عام، يتطلب التعلم الآلي – العملية التي يصبح من خلالها نظام الذكاء الاصطناعي أكثر دقة – الكثير من البيانات. كلما زاد عدد البيانات التي يمتلكها النظام، أصبح أكثر دقة. منصات الذكاء الاصطناعي التوليدية مثل chatbots ChatGPT وجوجل بارد، بالإضافة إلى أن منشئ الصور Dall-E يحصل على بعض بيانات التدريب الخاصة به من خلال تقنية تسمى الكشط: إنهم يكتسحون الإنترنت من أجلحصد المعلومات العامة المفيدة.

ولكن في بعض الأحيان، بسبب خطأ بشري أو إهمال، يمكن للبيانات الخاصة التي لم يكن من المفترض أن تكون عامة على الإطلاق، مثل مستندات الشركة الحساسة أو الصور أو حتى قوائم تسجيل الدخول، أن تتعرض للخطر.تشق طريقها إلى الجزء الذي يمكن الوصول إليه من الإنترنت، حيث يمكن لأي شخص العثور عليها بمساعدة عوامل تشغيل بحث Google. وبمجرد استخراج هذه المعلومات وإضافتها إلى مجموعة بيانات تدريب الذكاء الاصطناعي، ليس هناك الكثير مما يمكن لأي شخص القيام به لإزالتها.

يقول: "يجب أن يكون الناس قادرين على مشاركة الصورة بحرية دون التفكير في أنها ستؤدي في نهاية المطاف إلى تغذية أداة ذكاء اصطناعي توليدية، أو الأسوأ من ذلك، أن صورتهم قد ينتهي بها الأمر إلى استخدامها لإنشاء تزييف عميق".إيفانا بارتوليتي، كبير مسؤولي الخصوصية العالمي في شركة التكنولوجيا الهنديةويبرووزميل تنفيذي زائر للأمن السيبراني والخصوصية في كلية بامبلين للأعمال بجامعة فرجينيا للتكنولوجيا. "إن جمع البيانات الشخصية عبر الإنترنت يقوض سيطرة الأشخاص على بياناتهم."

لا يعد استخراج البيانات سوى مصدر واحد محتمل لبيانات التدريب لأنظمة الذكاء الاصطناعي.كاثرينا كورنريقول أحد كبار زملاء هندسة الخصوصية في الرابطة الدولية لمحترفي الخصوصية، إن هناك سببًا آخر هو الاستخدام الثانوي للبيانات الشخصية. يحدث هذا عندما تتخلى طوعًا عن بعض معلوماتك لغرض محدد، ولكن ينتهي الأمر بخدمة أخرى لم توافق عليها. تقوم الشركات بتجميع معلومات عملائها لسنوات، بما في ذلك عناوين البريد الإلكتروني وتفاصيل الشحن وأنواع المنتجات التي يفضلونها، ولكن في الماضي، لم يكن هناك الكثير الذي يمكنهم فعله بهذه البيانات. واليوم، توفر الخوارزميات المعقدة ومنصات الذكاء الاصطناعي طريقة سهلة لمعالجة هذه المعلومات حتى يتمكنوا من معرفة المزيد عن الأنماط السلوكية للأشخاص. يمكن أن يفيدك هذا من خلال تقديم الإعلانات والمعلومات التي قد تهمك فقط، ولكنه قد يحد أيضًا من توفر المنتج ويزيد الأسعار اعتمادًا على الرمز البريدي الخاص بك. يقول كورنر إنه من المغري للشركات أن تفعل ذلك بالنظر إلى أن بعضها يجلس بالفعل على أكوام كبيرة من البيانات التي قدمها عملاؤه.

وتوضح قائلة: "يسهل الذكاء الاصطناعي استخلاص الأنماط القيمة من البيانات المتاحة التي يمكن أن تدعم اتخاذ القرار في المستقبل، لذلك من المغري جدًا للشركات استخدام البيانات الشخصية للتعلم الآلي عندما لا يتم جمع البيانات لهذا الغرض".

متعلق ب:مثيل Azure SQL المُدار للأغراض العامة مقابل الأعمال الحرجة

ليس من المفيد أن يكون الأمر معقدًا للغاية بالنسبة للمطورين لحذف معلوماتك الشخصية بشكل انتقائي من مجموعة بيانات تدريب كبيرة. بالتأكيد، قد يكون من السهل حذف بعض التفاصيل، مثل تاريخ ميلادك أو رقم الضمان الاجتماعي (يُرجى عدم تقديم تفاصيل شخصية إلى منصة ذكاء اصطناعي مولدة). لكن تنفيذ طلب الحذف الكامل المتوافق مع اللائحة العامة لحماية البيانات في أوروبا، على سبيل المثال، يمثل تحديًا آخر تمامًا، وربما هو التحدي الأكثر تعقيدًا الذي يجب حله، كما يقول بارتوليتي.

[ذات صلة: كيفية منع الأجهزة المدرسية من مشاركة بيانات عائلتك]

يعد الحذف الانتقائي للمحتوى أمرًا صعبًا حتى في أنظمة تكنولوجيا المعلومات التقليدية، وذلك بفضل تعقيدهاهياكل الخدمات المصغرةحيث يعمل كل جزء كوحدة مستقلة. لكن كورنر يقول إن الأمر أصعب، إن لم يكن مستحيلاً حاليًا، في سياق الذكاء الاصطناعي.

وذلك لأن الأمر لا يقتصر فقط على الضغط على "ctrl + F" وحذف كل جزء من البيانات التي تحمل اسم شخص ما - فإزالة بيانات شخص واحد ستتطلب إجراءً مكلفًا لإعادة تدريب النموذج بأكمله من الصفر، كما توضح.

سيكون إلغاء الاشتراك أصعب وأصعب

يمكن لنظام الذكاء الاصطناعي الذي يتم تغذيته بشكل جيد أن يوفر كميات لا تصدق من التحليل، بما في ذلك التعرف على الأنماط التي تساعد مستخدميه على فهم سلوك الناس. لكن هذا لا يرجع إلى قدرات التكنولوجيا فحسب، بل يرجع أيضًا إلى ميل الناس إلى التصرف بطرق يمكن التنبؤ بها. يسمح هذا الجانب الخاص من الطبيعة البشرية لأنظمة الذكاء الاصطناعي بالعمل بشكل جيد دون معرفة الكثير عنك على وجه التحديد. لأنه ما الفائدة من معرفتك عندما تكون معرفة أشخاص مثلك كافية؟

تقول بريندا ليونج، الشريكة في شركة "إنترناشيونال إنترست": "لقد وصلنا إلى مرحلة حيث لا يتطلب الأمر سوى الحد الأدنى من المعلومات - ثلاث إلى خمس أجزاء فقط من البيانات ذات الصلة عن شخص ما، وهو أمر من السهل جدًا التقاطه - ويتم امتصاصها على الفور في النظام التنبؤي".BNH.AI، وهي شركة محاماة في واشنطن العاصمة تركز على عمليات تدقيق الذكاء الاصطناعي والمخاطر. باختصار: من الصعب، وربما من المستحيل، البقاء خارج النظام هذه الأيام.

وهذا يتركنا مع القليل من الحرية، فحتى الأشخاص الذين بذلوا قصارى جهدهم لسنوات لحماية خصوصيتهم سيكون لديهم نماذج الذكاء الاصطناعي لاتخاذ القرارات والتوصيات نيابةً عنهم. وهذا يمكن أن يجعلهم يشعرون وكأن كل جهودهم كانت هباءً.

يتابع ليونغ: "حتى لو تم ذلك بطريقة مفيدة بالنسبة لي، مثل تقديم قروض لي تتناسب مع دخلي، أو فرص كنت مهتمًا بها حقًا، فإن ذلك يحدث لي دون أن أتمكن حقًا من التحكم في ذلك بأي شكل من الأشكال".

كما أن استخدام البيانات الضخمة لتصنيف مجموعات كاملة من الناس لا يترك مكانًا للفروق الدقيقة -للقيم المتطرفة والاستثناءات- التي نعلم جميعًا أن الحياة مليئة بها. الشيطان يكمن في التفاصيل، ولكنه يكمن أيضًا في تطبيق استنتاجات عامة على ظروف خاصة يمكن أن تسوء فيها الأمور.

تسليح البيانات

ويتمثل التحدي الحاسم الآخر في كيفية غرس العدالة في اتخاذ القرارات الخوارزمية - وخاصة عندما تكون استنتاجات نموذج الذكاء الاصطناعي مبنية على بيانات خاطئة أو قديمة أو غير كاملة. ومن المعروف في هذه المرحلة أن أنظمة الذكاء الاصطناعي قادرة على ذلكإدامة التحيزات من المبدعين البشر، أحيانامع عواقب وخيمةلمجتمع بأكمله.

مع اعتماد المزيد والمزيد من الشركات على الخوارزمياتمساعدتهم على ملء المناصبأو تحديد أملف تعريف مخاطر السائق، يصبح من المرجح أن يتم استخدام بياناتنا ضد مصالحنا الخاصة. قد تتضرر يومًا ما من القرارات أو التوصيات أو التنبؤات التلقائية التي تقدمها هذه الأنظمة، مع توفر القليل جدًا من الموارد.

[ذات صلة: الأسلحة ذاتية التحكم يمكن أن ترتكب أخطاء جسيمة في الحرب]

إنها مشكلة أيضًا عندما تصبح هذه التنبؤات أو التصنيفات حقائق في نظر الخوارزمية التي لا يمكنها التمييز بين الصواب والخطأ. بالنسبة للذكاء الاصطناعي الحديث، كل شيء عبارة عن بيانات، سواء كانت شخصية أو عامة أو واقعية أو مختلقة بالكامل.

المزيد من التكامل يعني أمانًا أقل

مثلما أن تواجدك على الإنترنت قوي مثل أضعف كلمة مرور لديك، فإن تكامل أدوات الذكاء الاصطناعي الكبيرة مع المنصات الأخرى يوفر للمهاجمين المزيد من المزالج للتطفل عليها عند محاولة الوصول إلى البيانات الخاصة. لا تتفاجأ إذا كان بعضها لا يفي بالمعايير الأمنية.

وهذا لا يأخذ في الاعتبار جميع الشركات والوكالات الحكوميةجمع البيانات الخاصة بك دون علمك. فكر فيكاميرات المراقبة حول منطقتك,برنامج التعرف على الوجه يتتبعك في مكان الحفلوالأطفال الذين يركضون في منتزهك المحلي مع GoPros، وحتى الأشخاص الذين يحاولون الانتشار على TikTok.

كلما زاد عدد الأشخاص والمنصات التي تتعامل مع بياناتك، زادت احتمالية حدوث خطأ ما. المزيد من المساحة للخطأ يعني زيادة احتمالية انتشار معلوماتك عبر الإنترنت، حيث يمكن بسهولة جمعها في مجموعة بيانات تدريب نموذج الذكاء الاصطناعي. وكما ذكر أعلاه، من الصعب للغاية التراجع عن ذلك.

ما يمكنك القيام به

الخبر السيئ هو أنه ليس هناك الكثير الذي يمكنك القيام به حيال ذلك في الوقت الحالي، ولا يتعلق الأمر بالتهديدات الأمنية المحتملة الناجمة عن مجموعات بيانات تدريب الذكاء الاصطناعي التي تحتوي على معلوماتك، ولا بشأن الأنظمة التنبؤية التي قد تمنعك من الحصول على وظيفة أحلامك. وأفضل رهان لنا في الوقت الحالي هو المطالبة بالتنظيم.

ويمضي الاتحاد الأوروبي قدما بالفعل من خلال إقرار المسودة الأولى لقانون الذكاء الاصطناعي، الذي سينظم كيف يمكن للشركات والحكومات استخدام هذه التكنولوجيا على أساس مستويات مقبولة من المخاطر. وفي الوقت نفسه، استخدم الرئيس الأمريكي جو بايدن الأوامر التنفيذية لـجائزة التمويل لتطوير تكنولوجيا الذكاء الاصطناعي الأخلاقية والعادلةلكن الكونجرس لم يصدر أي قانون يحمي خصوصية المواطنين الأمريكيين عندما يتعلق الأمر بمنصات الذكاء الاصطناعي. ويعقد مجلس الشيوخ جلسات استماع للتعرف على هذه التكنولوجيا، لكنه لم يقترب بعد من وضع مشروع قانون فيدرالي.

وبينما تعمل الحكومة، يمكنك - بل وينبغي لك - الدعوة إلى تنظيم الخصوصية الذي يشمل منصات الذكاء الاصطناعي ويحمي المستخدمين من سوء التعامل مع بياناتهم. قم بإجراء محادثات هادفة مع من حولك حول تطوير الذكاء الاصطناعي، وتأكد من أنك تعرف موقف ممثليك فيما يتعلق بتنظيم الخصوصية الفيدرالي، وقم بالتصويت لأولئك الذين يضعون مصالحك في الاعتبار.

اقرأ المزيد من قصص PopSci+.