Simplemente la mención de “inteligencia artificial” ya de por sí evoca la imagen de robots asesinos destruyendo el mundo. Afortunadamente, la realidad demuestra que los usos actuales de esta tecnología son definitivamente de un carácter mucho más positivo. De hecho, los avances en este ámbito que están experimentando algunos sectores, como el de la salud o la agricultura, pueden suponer grandes beneficios para la humanidad a largo plazo.
Cuando hablamos de inteligencia artificial, muchas veces nos referimos a simples algoritmos con una función muy específica previamente determinada por un ser humano. Esto, por ejemplo, se observa en la inteligencia artificial aplicada al mundo de las finanzas. Las máquinas son capaces de procesar cantidades ingentes de información para identificar patrones que permiten hacer predicciones financieras para el futuro. Este, por tanto, sería uno más de muchos ejemplos en los que la inteligencia artificial procesa información dentro de un ámbito de actuación muy específico.
Sin embargo, el estado de la técnica también permite la creación de software que es capaz de tomar sus propias decisiones, sin que estas hayan sido previamente previstas por los desarrolladores. Esto sería el caso, por ejemplo, de un proyecto creado por un gigante tecnológico tiempo atrás, que tenía como objetivo optimizar la manera en la que los chatbots interactúan con los humanos. De esta forma, pusieron a dos chatbots a interactuar y aprender entre sí. Sin embargo, el resultado fue que, en este proceso, los chatbots advirtieron que el lenguaje humano no es la manera más eficiente de comunicarse, por lo que, en no demasiado tiempo, crearon un nuevo lenguaje y se empezaron a comunicar entre sí utilizado éste, el cual era, por supuesto, ininteligible para los humanos.
La posibilidad de que las máquinas puedan tomar sus propias decisiones, como no podría ser de otra manera, complica de manera significativa el cumplimiento con la normativa en materia de privacidad. Ya conocemos sobradamente el caso de la utilización de “decisiones automatizadas” en distintos ámbitos, como en el sector asegurador. Pero vayamos más allá e imaginemos que contamos con una herramienta de IA que, en el marco de una investigación (de cualquier índole), entiende que debe tener en cuenta más categorías de datos de lo inicialmente establecido para conseguir mejores resultados. Por ejemplo, que cuando en un inicio únicamente accedía a ubicación, sexo e intereses, decide procesar también datos sobre la orientación sexual de las personas. Esto podría cambiar completamente el enfoque del tratamiento e incluso invalidar las medidas en materia de protección de datos que habíamos aplicado en primer lugar.
Por tanto, resulta necesario observar el desarrollo de la inteligencia artificial a nivel global y adelantarse a las implicaciones que pueden acarrear. A tal efecto, más abajo recojo los cuatro puntos clave en materia de privacidad que deben tenerse en consideración en todo proyecto dentro de este ámbito. Por supuesto, un cumplimiento integral en materia de protección de datos incluiría muchas más cuestiones a analizar, pero considero que estos cuatro puntos son determinantes y realmente tendrán un importante impacto a la hora de determinar la legalidad de los proyectos de inteligencia artificial en el futuro.
- Privacidad desde el diseño y por defecto. Si, a la hora de construir un edificio, el arquitecto plasma desde un inicio en los planos la colocación de un ascensor, será fácil construir dicho edificio con este elemento. Sin embargo, reformar un edificio antiguo del centro de Madrid para instalar un ascensor es normalmente difícil y costoso. Esto mismo sucede con cualquier herramienta o aplicación informática. Si se tiene en cuenta la privacidad desde el primer momento, se podrán incluir fácilmente los elementos necesarios para garantizar el cumplimiento. En relación con esto, la realización de una evaluación de impacto de protección de datos antes de iniciar la actividad puede jugar un papel fundamental.
- Minimización de datos. Limitar desde un inicio la cantidad y tipología de datos que pueden ser accedidos por parte de la herramienta de inteligencia artificial es fundamental, no únicamente para cumplir con un principio básico de privacidad, sino para garantizar que el ámbito del tratamiento no puede ser variado sustancialmente por la herramienta, con las implicaciones que ello conllevaría.
- Transparencia. Es esencial informar a los usuarios sobre quién, cómo y por qué se utilizarán sus datos personales. No conozco ninguna regulación sobre privacidad en ningún lugar del mundo que no incluya la necesidad de ser transparente con los individuos sobre el uso que se está haciendo de su información personal. La transparencia está consolidada como un eje fundamental a la hora de tratar datos personales y, en el ámbito de las tecnologías disruptivas, no únicamente es obligatoria, sino que cuenta con especial relevancia a nivel ético.
- Legitimidad. Las bases legitimadoras son una serie de situaciones, definidas en el artículo 6 del Reglamento General de Protección de Datos, en las que estaría permitido tratar datos personales. Una de ellas es la obtención del consentimiento del individuo, pero existen otras cinco que pueden aplicar en determinados casos. Contar con una base legal válida para el tratamiento de datos es algo fundamental que no siempre es fácil de justificar en ciertos proyectos que implican el uso de tecnologías de inteligencia artificial.
- Seguridad. Una organización siempre será responsable de la seguridad de la información que procese. De igual forma que se invierte dinero en crear herramientas innovadoras, es necesario invertirlo en asegurarse de que sean seguras. No están siendo pocas los incidentes de seguridad que han afectado a datos personales de millones de personas, las cuales normalmente han conllevado importantes multas aparejadas. Por tanto, contar con unas medidas de seguridad robustas resulta esencial para desarrollar cualquier proyecto en el ámbito de la inteligencia artificial que conlleve la utilización de datos de carácter personal.