La protección de la privacidad en un AI mundo

89 Views

Nuestro mundo está experimentando una información de Big Bang, en el que el universo de datos se duplica cada dos años y quintillions de bytes de datos que se generan cada día.1 Durante décadas, la Ley de Moore en la duplicación de la potencia de cómputo de cada 18-24 meses ha impulsado el crecimiento de la tecnología de la información. Ahora–como los miles de millones de “smartphones” y otros dispositivos de recopilar y transmitir datos a través de la alta velocidad a nivel mundial de las redes, almacén de datos en cada vez más centros de datos, y analizar el uso cada vez más potentes y sofisticadas de software–la Ley de Metcalfe entra en juego. Se trata del valor de las redes como una función del cuadrado del número de nodos, lo que significa que los efectos de red de forma exponencial compuesto este crecimiento histórico de la información. Como 5G redes y, finalmente, la computación cuántica, implementar, esta explosión de datos crecerá aún más rápido y más grande.

El impacto del big data es comúnmente descrito en términos de las tres “V”: volumen, variedad y velocidad.2 Más datos hace que el análisis más potente y más granular. Variedad a esto se añade el poder y permite a los nuevos e imprevistos inferencias y predicciones. Y la velocidad facilita el análisis, así como compartir en tiempo real. Flujos de datos de los teléfonos móviles y otros dispositivos de ampliar el volumen, variedad y velocidad de la información acerca de todos los aspectos de nuestras vidas y pone de privacidad en el centro de atención mundial en cuestión de política pública.

la inteligencia Artificial probable que acelerar esta tendencia. Gran parte de la mayoría de la privacidad de los datos el análisis de hoy–tales como los algoritmos de búsqueda, los motores de recomendación, y adtech redes–son impulsados por la máquina de aprendizaje y las decisiones de los algoritmos. Como la inteligencia artificial que evoluciona, que se amplíe la capacidad para utilizar la información personal de manera que se pueden entrometerse en la privacidad de intereses por la recaudación de análisis de la información personal a los nuevos niveles de potencia y velocidad.

“Como la inteligencia artificial que evoluciona, que se amplíe la capacidad para utilizar la información personal de manera que se pueden entrometerse en la privacidad de intereses por la recaudación de análisis de la información personal a los nuevos niveles de potencia y velocidad.”

los sistemas de reconocimiento Facial ofrecer una vista previa de los problemas de privacidad que surgen. Con el beneficio de los ricos en bases de datos de fotografías digitales disponibles a través de los medios sociales, sitios web, licencia de conducir, registros, cámaras de vigilancia, y de muchas otras fuentes, máquina de reconocimiento de caras ha progresado rápidamente a partir de imágenes borrosas de los gatos3 a la rápida (aunque imperfecta) el reconocimiento de los seres humanos individuales. Los sistemas de reconocimiento Facial están siendo implementados en las ciudades y aeropuertos de todo estados unidos. Sin embargo, China el uso del reconocimiento facial como una herramienta de control autoritario en la región de Xinjiang4 y en otros lugares, ha despertado la oposición de esta expansión, y pide una prohibición en el uso de reconocimiento facial. Debido a las preocupaciones sobre el reconocimiento facial, las ciudades de Oakland, Berkeley y San Francisco en California, así como en Brookline, Cambridge, Northampton, y Somerville en Massachusetts, han adoptado prohibiciones a la tecnología.5 California, New Hampshire y Oregon todos han promulgado legislación que prohíbe la utilización de reconocimiento facial con el cuerpo de policía de las cámaras.6

Este policy brief explora la intersección entre la AI y el actual debate sobre la privacidad. Como el Congreso considera integral de la legislación de privacidad para llenar brechas crecientes en el actual tablero de ajedrez de privacidad federales y estatales, se debe considerar si o cómo abordar el uso de la información personal en la inteligencia artificial de los sistemas. En este breve, me discutir algunas de las potenciales preocupaciones con respecto a la inteligencia artificial y la privacidad, incluyendo la discriminación, el uso ético y humano de control, así como las opciones de política en discusión.

las cuestiones de Privacidad en IA

El reto para el Congreso para aprobar la legislación de privacidad que protege a las personas contra los efectos adversos por el uso de la información personal en AI, pero sin restringir indebidamente AI desarrollo o de la legislación de privacidad en la que quedaron atrapados en el complejo social y política de los matorrales. La discusión de la IA en el contexto del debate sobre la privacidad a menudo trae las limitaciones y fallas de los sistemas de AI, tales como la predicción de la policía, que podría afectar en forma desproporcionada a las minorías7 o de Amazon, un experimento fallido con la contratación de un algoritmo que replican ya existentes de la compañía de manera desproporcionada masculino de la fuerza de trabajo.8 Estos dos se plantean importantes cuestiones, pero la legislación de privacidad es bastante complicada, incluso sin embalaje en todos los asuntos políticos y sociales que pueden derivarse de los usos de la información. Para evaluar el efecto de AI sobre la privacidad, es necesario distinguir entre los problemas de datos que son endémicas a todos los AI, como la incidencia de falsos positivos y negativos o sobreajuste a los patrones, y aquellas que son específicas para el uso de la información personal.

La privacidad de las propuestas legislativas que implican estas cuestiones no de la dirección de inteligencia artificial en el nombre. Más bien, se refieren a los “automatizado de decisiones” (tomado de la ley de protección de datos de la UE) o “algorítmico decisiones” (utilizado en esta discusión). Este lenguaje turnos de la gente del enfoque de la utilización de la IA, como tal, el uso de datos personales en la IA y al impacto que este uso puede tener sobre las personas. Este debate centros, en particular en algorítmica sesgo y el potencial de algoritmos para producir ilegal o no deseadas de la discriminación en las decisiones que los algoritmos que se relacionan. Estas son las principales preocupaciones para los derechos civiles y las organizaciones de consumidores que representan a las poblaciones que sufren discriminación indebida.

Direccionamiento de algorítmica de la discriminación se presenta a preguntas básicas sobre el ámbito de aplicación de la legislación en materia de privacidad. En primer lugar, ¿hasta qué punto puede o debe legislación abordar las cuestiones algorítmicas sesgo? La discriminación no es evidentemente un problema de privacidad, ya que presenta un amplio problemas sociales que persisten incluso sin la recopilación y uso de información personal, y caer bajo el dominio de diversas leyes de derechos civiles. Por otra parte, haciendo estas leyes disponible para el debate efectivamente podría abrir una Caja de Pandora debido a la carga política de las cuestiones que les toque y de varios comités del congreso con jurisdicción sobre diversas cuestiones. Aún así, la discriminación se basa en los atributos personales, tales como el color de la piel, la identidad sexual, y el origen nacional. Uso de la información personal acerca de estos atributos, ya sea de manera explícita o—más probable y menos obviamente—a través de apoderados, para la automatización de toma de decisión en contra de los intereses de la persona involucrada por lo tanto implica intereses de privacidad en el control de cómo se usa la información.

“Esta farsa de consentimiento ha hecho evidente que la notificación y elección se ha convertido sentido. Para muchas aplicaciones de la AI … va a ser completamente imposible.”

en Segundo lugar, la protección de tales intereses de privacidad en el contexto de la IA será necesario un cambio en el paradigma de la normativa en materia de privacidad. La mayoría de las actuales leyes de privacidad, así como la actual Comisión Federal de Comercio de aplicación de la ley contra prácticas injustas y engañosas, se sustentan en un modelo de elección de los consumidores basada en la “notificación y elección” (también referido como “aviso y consentimiento”). Se enfrentan los consumidores de este enfoque en la avalancha de notificaciones y banners vinculados a la larga y poco informativo políticas de privacidad y los términos y condiciones que aparentemente consentimiento, pero rara vez de leer. Esta farsa de consentimiento ha hecho evidente que la notificación y elección se ha convertido sentido. Para muchas aplicaciones de la AI—smart señales de tráfico y otros sensores necesarios para el soporte de auto-conducción de coches como un prominente ejemplo—va a ser completamente imposible.

a Pesar de que casi todos los proyectos de ley en el congreso todavía se basan en el aviso-y-modelo de elección en cierto grado, la clave de los líderes del congreso, así como la privacidad de las partes interesadas han expresado su deseo de cambiar el modelo por el desplazamiento de la carga de la protección de la privacidad individual de los consumidores a las empresas que recopilan datos.9 En el lugar de elección de los consumidores, su modelo se centra en la conducta en los negocios mediante la regulación de las empresas de procesamiento de datos–lo que se recopila y cómo se puede utilizar y compartir. Abordar el procesamiento de datos que los resultados en cualquier algorítmica discriminación puede caber dentro de este modelo.

Un modelo centrado en la recopilación y procesamiento de datos puede afectar a la IA y algorítmica de la discriminación en varias maneras:

además de estas disposiciones de aplicación general que puede afectar a algorítmica decisiones indirectamente, una serie de propuestas que aborden específicamente el tema.10

AI opciones de política para la protección de la privacidad

Las respuestas a IA que se encuentran actualmente en discusión en la legislación de privacidad de tomar dos formas principales. El primero de los objetivos de la discriminación directa. Un grupo de 26 de derechos civiles y organizaciones de consumidores escribió una carta conjunta en la que abogan para prohibir o controlar el uso de información personal con discriminatorias impactos sobre la “gente de color, las mujeres, las minorías religiosas, los miembros de la comunidad LGBTQ+ de la comunidad, las personas con discapacidad, las personas que viven en l encantadora, los inmigrantes, y otras poblaciones vulnerables.”11 El Comité de Abogados para los Derechos Civiles Bajo la Ley y la libertad de Prensa de Acción han incorporado este principio en la legislación modelo dirigido a la discriminación de datos que afectan a la oportunidad económica, en los lugares públicos, o de supresión de votantes.12 Este modelo es sustancialmente refleja en el Consumo de Privacidad en Línea de los Derechos de Ley, que fue introducido en los últimos días del 2019 sesión del congreso por la Comisión de Comercio del Senado ranking miembros Maria Cantwell (D-Wash.). También se incluye una disposición similar restringir el procesamiento de la información personal que discrimina en contra o se clasifica a los individuos sobre la base de los protegidos de los atributos de raza, de género, u orientación sexual.13 El Republicano proyecto contrapropuesta aborda el potencial para discriminatorias uso de información personal por parte de un llamamiento a la Comisión Federal de Comercio para cooperar con las agencias que hacen cumplir las leyes contra la discriminación y a la realización de un estudio.14

Este enfoque algorítmico discriminación implica que los debates sobre los derechos privados de acción en la legislación de privacidad. La posibilidad de tales litigios individuales es un punto clave de la divergencia entre los Demócratas alineados con los consumidores y defensores de la privacidad, por un lado, y los Republicanos alineados con los intereses de los negocios en el otro. El ex argumentan que las demandas son un necesario multiplicador de la fuerza federal y estado de ejecución, mientras que el segundo expresa la preocupación de que la demanda de acción de clase, en particular, la carga de negocio con los litigios sobre cuestiones triviales. En el caso de muchos de los tipos de discriminación enumerados en el algorítmica discriminación propuestas existentes federales, estatales y locales, y las leyes de derechos civiles permiten a los individuos a presentar reclamaciones por discriminación. Federal de preferencia o limitación de los derechos privados de acción federal de la legislación de privacidad no debe afectar estas leyes.

El segundo enfoque se ocupa de riesgo más oblicuamente, con medidas de rendición de cuentas diseñado para identificar la discriminación en el tratamiento de los datos personales. Numerosas organizaciones y empresas, así como varios legisladores proponen la rendición de cuentas. Sus propuestas adoptar diversas formas:

Un sentido de la equidad sugiere tal una válvula de seguridad debe estar disponible para algorítmica de decisiones que tienen un impacto material en la vida de las personas. Explainability requiere (1) la identificación de algorítmica de decisiones, (2) la deconstrucción de decisiones específicas, y (3) el establecimiento de un canal por el cual una persona puede buscar una explicación. La ingeniería inversa de los algoritmos basados en aprendizaje automático puede ser difícil, e incluso imposible, dificultad que aumenta a medida que la máquina de aprendizaje se vuelve más sofisticado. Explainability por lo tanto conlleva una importante carga de reglamentación y restricción en el uso de algoritmos de toma de decisión y, a la luz de esto, debe estar concentrado en su aplicación, como ha hecho la UE (al menos en principio), con sus “efectos jurídicos u otros de similar importancia de los efectos” umbral. A medida que aumenta la comprensión acerca de las fortalezas comparativas de los humanos y de capacidades de la máquina, tener un “ser humano en el bucle” para la toma de decisiones que afectan la vida de las personas, ofrece una manera de combinar la potencia de las máquinas con el juicio humano y la empatía.

Debido a las dificultades de prever la máquina de los resultados de aprendizaje, así como la inversa de la ingeniería algorítmica de decisiones, no hay una sola medida puede ser completamente eficaz en evitar efectos perversos. Por lo tanto, donde algorítmica decisiones tienen consecuencias, tiene sentido combinar medidas a trabajar juntos. Avanzar en la adopción de medidas tales como la transparencia y la evaluación del riesgo, combinado con un control a posteriori de las auditorías y la revisión humana de decisiones, podría ayudar a identificar y abordar los resultados injustos. Una combinación de estas medidas se pueden complementar entre sí y se suman a más de la suma de las partes. Las evaluaciones de riesgos, la transparencia, la explainability, y las auditorías también fortalecer los recursos para procesable discriminación por proporcionar evidencia documental de que podría ser utilizado en litigio. No todos los algoritmos de toma de decisión es consecuencia, sin embargo, por lo que estos requisitos deben variar de acuerdo con el riesgo objetivo.

Mirando hacia el futuro

La ventana para este Congreso para promulgar una legislación en materia de privacidad se está reduciendo. Mientras que el Comité de Comercio en cada una de las cámaras del Congreso ha estado trabajando de manera bipartidista durante todo el año 2019 y la han llevado a cabo proyectos de documentos de debate, que todavía tienen que llegar a un acuerdo sobre un proyecto de ley. Mientras tanto, el Consumidor de California la Ley de Privacidad entró en vigor en enero. 1, 2020,21 el juicio político y la guerra de poderes al margen de otras cuestiones, y la elección presidencial va en pleno apogeo.

“La ventana para este Congreso para promulgar una legislación en materia de privacidad se está reduciendo.”

En la ventana que queda a pasar la legislación de privacidad antes de 2020 de la elección, el tratamiento de los algoritmos de toma de decisión es una forma sustantiva y políticamente de los desafíos que tendrá un aplicables de la resolución. Para una serie de derechos civiles, consumidores y otros grupos de la sociedad civil, el establecimiento de protecciones contra la discriminación en algoritmos de toma de decisiones es una parte esencial de la legislación. A su vez, va a ser importante para los Demócratas en el Congreso. Como mínimo, cualquier afirmación algorítmica de la discriminación basada en la información personal está sujetos a los derechos civiles y la ley de no discriminación, así como algunas medidas de rendición de cuentas, será esencial para el paso de la legislación de privacidad.

La Institución Brookings es una organización sin fines de lucro dedicada a la investigación independiente y soluciones políticas. Su misión es llevar a cabo de alta calidad, independiente y de investigación, basado en la investigación, para proporcionar innovadores, prácticos recomendaciones para la formulación de políticas y el público. Las conclusiones y recomendaciones de cualquier Brookings publicación son de exclusiva responsabilidad de su autor(s) y no reflejan los puntos de vista de la Institución, sus directivos, o sus otros estudiosos.

Microsoft proporciona soporte técnico a La Institución Brookings de la Inteligencia Artificial y las nuevas tecnologías (AIET) Iniciativa, y Amazon y Intel proporcionar general, el apoyo irrestricto a la Institución. Los hallazgos, interpretaciones y conclusiones en este informe no están influenciados por la donación. Brookings reconoce que el valor que aporta es, en su absoluto compromiso con la calidad, la independencia y el impacto. Actividades con el apoyo de sus donantes reflejan este compromiso.

This content was originally published here.

No comments

Todos los ciudadanos mexicanos somos responsables y debemos trabajar en la construcción de nuestro futuro y el MÉXICO QUE TODOS QUEREMOS asegurando el constante fortalecimiento de la democracia, el estado de derecho y el bienestar social equitativo y sustentable.

Aviso de Privacidad

es_MXEspañol de México
es_MXEspañol de México