Eres más que un punto de datos. La opción de exclusión voluntaria está aquí para ayudarle a recuperar su privacidad.
LA ÚLTIMA OLAEl desarrollo de la inteligencia artificial nos ha obligado a muchos de nosotros a repensar aspectos clave de nuestras vidas. Los artistas digitales, por ejemplo, ahora deben centrarse en proteger su trabajo de los sitios que generan imágenes, y los profesores deben lidiar con la posibilidad de que algunos de sus estudiantes subcontraten sus servicios.redacción de ensayos en ChatGPT.
Pero la avalancha de IA también conlleva importantes riesgos para la privacidad que todos deberían comprender, incluso si no planeas descubrir nunca lo que piensa esta tecnología.te verías como una sirena.
Una falta de transparencia
"A menudo sabemos muy poco sobre quién utiliza nuestra información personal, cómo y con qué fines", afirmaJessica Brandt, director de políticas de la Iniciativa de Inteligencia Artificial y Tecnología Emergente en elInstitución Brookings, una organización sin fines de lucro en Washington, D.C., que realiza investigaciones que utiliza para abordar una amplia gama de problemas nacionales y globales.
En términos generales, el aprendizaje automático (el proceso mediante el cual un sistema de IA se vuelve más preciso) requiere una gran cantidad de datos. Cuantos más datos tenga un sistema, más preciso será. Plataformas de IA generativa como los chatbots ChatGPT yEl bardo de Google, además del generador de imágenes Dall-E, obtienen algunos de sus datos de entrenamiento a través de una técnica llamada scraping: barren Internet pararecolectar información pública útil.
Pero a veces, debido a errores humanos o negligencia, datos privados que nunca debieron ser públicos, como documentos delicados de la empresa, imágenes o incluso listas de inicio de sesión, puedenllegar a la parte accesible de Internet, donde cualquiera puede encontrarlos con la ayuda de los operadores de búsqueda de Google. Y una vez que esa información se extrae y se agrega al conjunto de datos de entrenamiento de una IA, no hay mucho que nadie pueda hacer para eliminarla.
"La gente debería poder compartir libremente una foto sin pensar que terminará alimentando una herramienta de inteligencia artificial generativa o, peor aún, que su imagen podría terminar siendo utilizada para crear un deepfake", diceIvana Bartoletti, director global de privacidad de una empresa de tecnología indiawiproy miembro ejecutivo visitante de ciberseguridad y privacidad en Pamplin College of Business de Virginia Tech. "La extracción de datos personales a través de Internet socava el control de las personas sobre sus datos".
El raspado de datos es solo una fuente potencialmente problemática de datos de entrenamiento para sistemas de inteligencia artificial.Katharina Koerner, investigador principal de ingeniería de privacidad de la Asociación Internacional de Profesionales de la Privacidad, dice que otro es el uso secundario de datos personales. Esto sucede cuando usted cede voluntariamente parte de su información para un propósito específico pero termina sirviendo a otro para el que no dio su consentimiento. Las empresas han estado acumulando la información de sus clientes durante años, incluidas direcciones de correo electrónico, detalles de envío y qué tipo de productos les gustan, pero en el pasado no podían hacer mucho con estos datos. Hoy en día, los algoritmos complejos y las plataformas de inteligencia artificial brindan una manera fácil de procesar esta información para que puedan aprender más sobre los patrones de comportamiento de las personas. Esto puede beneficiarlo al mostrarle solo anuncios e información que realmente le interesan, pero también puede limitar la disponibilidad del producto y aumentar los precios según su código postal. Koerner dice que es tentador para las empresas hacer esto dado que algunas ya cuentan con grandes cantidades de datos proporcionados por sus propios clientes.
"La IA facilita la extracción de patrones valiosos de los datos disponibles que pueden respaldar la toma de decisiones futuras, por lo que resulta muy tentador para las empresas utilizar datos personales para el aprendizaje automático cuando los datos no se recopilaron para ese propósito", explica.
No ayuda que sea extremadamente complicado para los desarrolladores eliminar selectivamente su información personal de un gran conjunto de datos de entrenamiento. Claro, puede ser fácil eliminar detalles específicos, como su fecha de nacimiento o número de Seguro Social (no proporcione datos personales a una plataforma de IA generativa). Pero realizar una solicitud de eliminación completa que cumpla con el Reglamento General de Protección de Datos de Europa, por ejemplo, es otra cosa, y quizás el desafío más complejo de resolver, dice Bartoletti.
[Relacionado: Cómo evitar que los dispositivos escolares compartan los datos de su familia]
La eliminación selectiva de contenidos es difícil incluso en los sistemas de TI tradicionales, gracias a sus complicadosestructuras de microservicios, donde cada parte funciona como una unidad independiente. Pero Koerner dice que es aún más difícil, si no imposible, en el contexto de la IA.
Esto se debe a que no se trata sólo de presionar "ctrl + F" y eliminar cada dato que tenga el nombre de alguien; eliminar los datos de una persona requeriría el costoso procedimiento de volver a entrenar todo el modelo desde cero, explica.
Será cada vez más difícil optar por no participar
Un sistema de inteligencia artificial bien nutrido puede proporcionar cantidades increíbles de análisis, incluido el reconocimiento de patrones que ayuda a sus usuarios a comprender el comportamiento de las personas. Pero esto no se debe sólo a las capacidades de la tecnología: también se debe a que las personas tienden a comportarse de manera predecible. Esta faceta particular de la naturaleza humana permite que los sistemas de inteligencia artificial funcionen bien sin saber mucho sobre usted específicamente. Porque, ¿de qué sirve conocerte cuando con conocer a gente como tú será suficiente?
"Estamos en un punto en el que sólo se necesita información mínima (sólo de tres a cinco datos relevantes sobre una persona, que es bastante fácil de recoger) e inmediatamente son absorbidos por el sistema predictivo", dice Brenda Leong, socia deBNH.AI, un bufete de abogados de Washington, D.C., que se centra en auditorías y riesgos de IA. En resumen: hoy en día es más difícil, tal vez imposible, permanecer fuera del sistema.
Esto nos deja con poca libertad, ya que incluso las personas que han hecho todo lo posible durante años para proteger su privacidad tendrán modelos de IA que tomarán decisiones y recomendaciones por ellos. Eso podría hacerles sentir que todo su esfuerzo fue en vano.
“Incluso si se hace de una manera útil para mí, como ofrecerme préstamos que sean del nivel adecuado para mis ingresos, u oportunidades que realmente me interesarían, me lo están haciendo sin que yo realmente pueda controlarlo de ninguna manera”, continúa Leong.
El uso de big data para encasillar a grupos enteros de personas tampoco deja lugar a matices (valores atípicos y excepciones) de los que todos sabemos que la vida está llena. El problema está en los detalles, pero también en la aplicación de conclusiones generalizadas a circunstancias especiales en las que las cosas pueden salir muy mal.
Más lectura:¿iPhone/iPad atascado en las alertas críticas del hogar? ¡9 últimas correcciones!
La militarización de los datos
Otro desafío crucial es cómo inculcar equidad en la toma de decisiones algorítmicas, especialmente cuando las conclusiones de un modelo de IA pueden basarse en datos defectuosos, obsoletos o incompletos. Es bien sabido a estas alturas que los sistemas de IA puedenperpetuar los prejuicios de sus creadores humanos, a vecescon terribles consecuenciaspara toda una comunidad.
A medida que más y más empresas confían en algoritmos paraayudarlos a cubrir puestoso determinar unperfil de riesgo del conductor, es más probable que nuestros propios datos se utilicen en contra de nuestros propios intereses. Es posible que algún día usted se vea perjudicado por las decisiones, recomendaciones o predicciones automatizadas que hacen estos sistemas, con muy pocos recursos disponibles.
[Relacionado: Las armas autónomas podrían cometer graves errores en la guerra]
También es un problema cuando estas predicciones o etiquetas se convierten en hechos a los ojos de un algoritmo que no puede distinguir entre verdadero y falso. Para la IA moderna, todos son datos, ya sean personales, públicos, fácticos o totalmente inventados.
Más integración significa menos seguridad
Así como su presencia en Internet es tan fuerte como su contraseña más débil, la integración de grandes herramientas de inteligencia artificial con otras plataformas proporciona a los atacantes más pestillos para entrometerse cuando intentan acceder a datos privados. No se sorprenda si algunos de ellos no cumplen con los estándares de seguridad.
Y eso sin considerar todas las empresas yagencias gubernamentalesRecolectar sus datos sin su conocimiento. Piensa en elcámaras de vigilancia alrededor de su vecindario,Software de reconocimiento facial que te sigue en una sala de conciertos, niños corriendo por el parque local con GoPros e incluso personas que intentan volverse virales en TikTok.
Cuantas más personas y plataformas manejen sus datos, más probable será que algo salga mal. Más margen de error significa una mayor probabilidad de que su información se difunda por Internet, donde podría incorporarse fácilmente al conjunto de datos de entrenamiento de un modelo de IA. Y como se mencionó anteriormente, eso es terriblemente difícil de deshacer.
que puedes hacer
La mala noticia es que no hay mucho que pueda hacer al respecto en este momento, ni respecto de las posibles amenazas a la seguridad derivadas de los conjuntos de datos de entrenamiento de IA que contienen su información, ni respecto de los sistemas predictivos que pueden impedirle conseguir el trabajo de sus sueños. Nuestra mejor opción, en este momento, es exigir regulación.
La Unión Europea ya está avanzando al aprobar el primer borrador de la Ley de IA, que regulará cómo las empresas y los gobiernos pueden utilizar esta tecnología en función de niveles aceptables de riesgo. Mientras tanto, el presidente estadounidense Joe Biden ha utilizado órdenes ejecutivas paraconceder financiación para el desarrollo de tecnología de IA ética y equitativa, pero el Congreso no ha aprobado ninguna ley que proteja la privacidad de los ciudadanos estadounidenses cuando se trata de plataformas de inteligencia artificial. El Senado ha estado celebrando audiencias para conocer la tecnología, pero no ha estado ni cerca de elaborar un proyecto de ley federal.
Mientras el gobierno trabaja, usted puede (y debe) abogar por una regulación de la privacidad que incluya plataformas de inteligencia artificial y proteja a los usuarios del mal manejo de sus datos. Mantenga conversaciones significativas con quienes lo rodean sobre el desarrollo de la IA, asegúrese de saber cuál es la posición de sus representantes en términos de regulación federal de privacidad y vote por aquellos que se preocupan por sus mejores intereses.
Lea más historias de PopSci+.
