Comunidad Europea avanza hacia los principios éticos para la inteligencia artificial

Tal como lo indica en comunicado sobre Inteligencia Artificial para Europa, podemos entender a la inteligencia artificial (IA) como aquellos sistemas que muestran un comportamiento inteligente mediante el análisis de su entorno y realizan toma de medidas – con algún grado de autonomía – para lograr objetivos específicos.
Los sistemas basados en la IA pueden ser puramente basado en software, actuando en el entorno virtual (por ejemplo, asistentes de voz, imagen, etc.), software de análisis, motores de búsqueda, sistemas de reconocimiento de voz y rostro o la IA se puede integrar en el hardware (por ejemplo, robots avanzados, coches autónomos, aviones teledirigidos o Internet de Cosas).

Muchas tecnologías de IA requieren datos para mejorar su rendimiento. Pueden ayudar a mejorar y automatizar la toma de decisiones . Por ejemplo, un sistema de IA en ciberataques sobre la base de los datos de la base de datos del la red o el sistema de que se trate.

Por lo mismo la Comunidad Europea estima que «la inteligencia artificial (IA) se ha convertido en un área de importancia estratégica y un motor clave del desarrollo económico. Puede aportar soluciones a muchos desafíos sociales, desde el tratamiento de enfermedades hasta la minimización del impacto ambiental de la agricultura. Sin embargo, los impactos socioeconómicos, legales y éticos deben ser abordados cuidadosamente.»

Para ello La Comisión Europea y los Estados miembros publicaron un plan de acción coordinado (una verdadera hoja de ruta) sobre el desarrollo de la IA en la UE el 7 de diciembre de 2018 con el fin de promover el desarrollo de la inteligencia artificial (AI) en Europa. Al mismo tiempo se formó un grupo de alto nivel de expertos en Inteligencia Artificial (IA) de la Comisión Europea, integrado por 52 expertos independientes procedentes del ámbito académico, empresas y de la sociedad civil.

Dentro de esta planificación, se tiene proyectado a marzo de 2019 la elaboración del documentos de principios éticos «para una Inteligencia artificial confiable», un texto que establece una «Inteligencia Artificial centrada en el ser humano». La guía ética definitiva de la Comisión Europea sobre Inteligencia Artificial se publicará el mes de marzo de 2019, y hasta entonces se ha abierto un periodo en el que el grupo de expertos responsable recibirá sugerencias, hasta el 18 de enero, de cara a redactar la versión final.

Como primera medida es la reciente publicación de un texto borrador en la que la Comunidad Europea ha establecido una serie de derechos básicos en el desarrollo de la Inteligencia Artificial Clic para tuitear

Ésta se dirigen a todos los actores del sector, entre los que destaca que la IA «debería ser desarrollada, desplegada y utilizada con un propósito ético».

La UE ha defendido que estas tecnologías deben estar basadas en varios derechos fundamentales, resumidos en cinco:

1) hacer el bien

2) no hacer el mal

3) autonomía de los humanos

4) justicia

5) que sus acciones sean explicables.

Estos principios se aplican de manera general, aunque especialmente en las situaciones con grupos vulnerables, como niños, discapacitados y minorías, así como a empleados y consumidores. La Comisión Europea ha reconocido que «aunque puede traer beneficios a los individuos y la sociedad, la IA también puede tener un impacto negativo».

Como se informa en nota de El país, en cuanto a medidas concretas para desarrollar una IA de confianza, el borrador de la Comisión Europea ha apuntado que estos sistemas deben ser capaces de rendir cuentas –es decir, deben ser responsables–, contar con un diseño para todas las personas y respetar la autonomía del ser humano.

Entre el resto de principios básicos de desarrollo se encuentra también la ausencia de discriminación, la necesidad de que siempre sea posible una supervisión por parte de seres humanos, y el respeto a la privacidad de los mismos.

El texto apunta también la necesidad de que las tecnologías sean robustas, seguras y transparentes. Los sistemas de IA deben así asegurar la trazabilidad de sus acciones y decisiones, así como ser realistas sobre sus capacidades y limitaciones.

De cara a las empresas, la UE recomienda el uso de códigos deontológicos sobre la IA, y aconseja que las que desarrollen o prueben este tipo de tecnologías lo hagan a través de equipos humanos con diversidad y que faciliten las auditorías externas.

Así, por tanto, avanza a paso firme Europa en promoción y consolidación de la IA, pero incorporando estos principios éticos en su desarrollo y uso.

Deja un comentario