Ética y pautas para una inteligencia artificial fiable

La inteligencia artificial (IA) es una tecnología que se está desarrollando a un ritmo imparable en todo el mundo y en numerosos ámbitos, beneficiando así a la sociedad y a la economía en su conjunto. Por ejemplo, a través de ella se puede mejorar la asistencia sanitaria, predecir el cambio climático y medioambiental, reducir el consumo de energía y recursos, detectar fraudes y amenazas de ciberseguridad e incluso mejorar la gestión del riesgo financiero. No obstante, también plantea nuevos retos y cuestiones jurídicas y éticas, ya que permite a las máquinas “aprender” y tomar decisiones y ejecutarlas sin intervención humana.

Con el objetivo de abordar estos retos, la Comisión Europea publicó en 2018 una estrategia europea que coloca a la persona en el centro del desarrollo de la IA, primando los valores de respeto de la dignidad humana, la libertad, la democracia, la igualdad, el Estado de Derecho y el respeto de los derechos humanos.

A raíz de esta estrategia, un grupo de expertos sobre IA presentó un documento en 2019 estableciendo una serie de directrices para lograr una “IA fiable” y por tanto conforme a la ley, respetuosa con los principios éticos y sólida.

En esta línea, los siete requisitos esenciales que deben respetar las aplicaciones de IA para ser consideradas fiables son:

  1. Intervención y supervisión humanas: los sistemas de IA deben facilitar sociedades equitativas, apoyando la intervención humana y los derechos fundamentales y no disminuir, limitar o desorientar la autonomía humana.
  2. Solidez y seguridad técnicas: La fiabilidad de la inteligencia artificial requiere que los algoritmos sean suficientemente seguros, fiables y técnicamente sólidos para resolver errores o incoherencias durante todas las fases del ciclo vital del sistema de IA y hacer frente adecuadamente a los resultados erróneos.
  3. Privacidad y gestión de datos: Deben garantizarse la privacidad y la protección de datos en todas las fases del ciclo vital del sistema de IA.
  4. Transparencia: Debe garantizarse la trazabilidad de los sistemas de IA y que quienes interactúen con esos sistemas sepan que se trata de inteligencia artificial, así como qué personas son sus responsables.
  5. Diversidad, no discriminación y equidad: La inteligencia artificial debe tener en cuenta la diversidad social desde su desarrollo, teniendo en cuenta toda gama de capacidades, habilidades y necesidades humanas para garantizar que los algoritmos en que se base tengan un enfoque de diseño universal y no sesgos discriminatorios directos o indirectos.
  6. Bienestar social y medioambiental: Ha de tenerse en cuenta el impacto sobre el medio ambiente y otros seres sensibles de la IA y fomentarse la sostenibilidad y la responsabilidad ecológica de los sistemas de IA.
  7. Rendición de cuentas: Deben implantarse mecanismos que garanticen la responsabilidad y la rendición de cuentas de los sistemas de IA y de sus resultados, tanto antes como después de su implementación.

La Comisión Europea apoya dichos requisitos basados en valores europeos y anima a las partes interesadas a aplicarlos con vistas a crear un entorno adecuado de confianza para un desarrollo y uso provechoso de la IA.

Si bien queda mucho por hacer y regular todavía, estas directrices sientan las bases para una IA ética que respete los valores fundamentales de la sociedad y genere confianza y fiabilidad.

Leave a Reply

¿Quieres conocer lo último en tecnología y marketing?

¿Quieres conocer lo último en tecnología y marketing?



Responsable: INTEGRA ESTRATEGIA Y TECNOLOGÍA (Sociedad Aragonesa de Asesoría Técnica S.L.). - Finalidad: Gestionar el envío de información - Legitimación: Consentimiento del interesado. - Destinatarios: No se cederán datos salvo disposición legal. - Derechos: Acceder, rectificar y suprimir los datos, así como otros derechos, como se explica en la información adicional. - Puede consultar información adicional sobre Protección de Datos en nuestro política de privacidad.


You have Successfully Subscribed!