Laura Ramos Sancho5 agosto, 2019 La inteligencia artificial (IA) es una tecnología que se está desarrollando a un ritmo imparable en todo el mundo y en numerosos ámbitos, beneficiando así a la sociedad y a la economía en su conjunto. Por ejemplo, a través de ella se puede mejorar la asistencia sanitaria, predecir el cambio climático y medioambiental, reducir el consumo de energía y recursos, detectar fraudes y amenazas de ciberseguridad e incluso mejorar la gestión del riesgo financiero. No obstante, también plantea nuevos retos y cuestiones jurídicas y éticas, ya que permite a las máquinas “aprender” y tomar decisiones y ejecutarlas sin intervención humana. Con el objetivo de abordar estos retos, la Comisión Europea publicó en 2018 una estrategia europea que coloca a la persona en el centro del desarrollo de la IA, primando los valores de respeto de la dignidad humana, la libertad, la democracia, la igualdad, el Estado de Derecho y el respeto de los derechos humanos. A raíz de esta estrategia, un grupo de expertos sobre IA presentó un documento en 2019 estableciendo una serie de directrices para lograr una “IA fiable” y por tanto conforme a la ley, respetuosa con los principios éticos y sólida. En esta línea, los siete requisitos esenciales que deben respetar las aplicaciones de IA para ser consideradas fiables son: Intervención y supervisión humanas: los sistemas de IA deben facilitar sociedades equitativas, apoyando la intervención humana y los derechos fundamentales y no disminuir, limitar o desorientar la autonomía humana. Solidez y seguridad técnicas: La fiabilidad de la inteligencia artificial requiere que los algoritmos sean suficientemente seguros, fiables y técnicamente sólidos para resolver errores o incoherencias durante todas las fases del ciclo vital del sistema de IA y hacer frente adecuadamente a los resultados erróneos. Privacidad y gestión de datos: Deben garantizarse la privacidad y la protección de datos en todas las fases del ciclo vital del sistema de IA. Transparencia: Debe garantizarse la trazabilidad de los sistemas de IA y que quienes interactúen con esos sistemas sepan que se trata de inteligencia artificial, así como qué personas son sus responsables. Diversidad, no discriminación y equidad: La inteligencia artificial debe tener en cuenta la diversidad social desde su desarrollo, teniendo en cuenta toda gama de capacidades, habilidades y necesidades humanas para garantizar que los algoritmos en que se base tengan un enfoque de diseño universal y no sesgos discriminatorios directos o indirectos. Bienestar social y medioambiental: Ha de tenerse en cuenta el impacto sobre el medio ambiente y otros seres sensibles de la IA y fomentarse la sostenibilidad y la responsabilidad ecológica de los sistemas de IA. Rendición de cuentas: Deben implantarse mecanismos que garanticen la responsabilidad y la rendición de cuentas de los sistemas de IA y de sus resultados, tanto antes como después de su implementación. La Comisión Europea apoya dichos requisitos basados en valores europeos y anima a las partes interesadas a aplicarlos con vistas a crear un entorno adecuado de confianza para un desarrollo y uso provechoso de la IA. Si bien queda mucho por hacer y regular todavía, estas directrices sientan las bases para una IA ética que respete los valores fundamentales de la sociedad y genere confianza y fiabilidad.
Estrategia and Marketing digital and Seguridad and Tecnología para la empresa 27 enero, 2023 ¿Cuáles son las tendencias que marcarán 2023?
Seguridad 21 diciembre, 2021 Protege los datos de tu organización con IBM Security Guardium Data Protection