{"id":10820,"date":"2022-09-01T10:00:57","date_gmt":"2022-09-01T08:00:57","guid":{"rendered":"https:\/\/pre.madridemprende.anovagroup.es\/?post_type=noticias&#038;p=10820"},"modified":"2022-08-11T11:10:06","modified_gmt":"2022-08-11T09:10:06","slug":"roboetica","status":"publish","type":"noticias","link":"https:\/\/test.madridemprende.anovagroup.es\/en\/noticias\/roboetica\/","title":{"rendered":"Robo\u00e9tica"},"content":{"rendered":"<ul>\n<li><strong>Gianmarco Veruggio fue el primero en hacer alusi\u00f3n a la robo\u00e9tica<\/strong><\/li>\n<li><strong>Sin la \u00e9tica, la inteligencia artificial puede llevarnos a graves errores<\/strong><\/li>\n<\/ul>\n<h3><\/h3>\n<h3>Concepto<\/h3>\n<p>Hace dos d\u00e9cadas, Gianmarco Veruggio fue el primero en hacer alusi\u00f3n a la \u00e9tica de la rob\u00f3tica, el campo \u00e9tico que valora sus implicaciones positivas y negativas.<\/p>\n<p>El objetivo de la robo\u00e9tica es \u201c<strong>evitar el mal uso de los robots y de productos y servicios basados en la inteligencia artificial (IA) contra la humanidad<\/strong>\u201d. Si tenemos en cuenta que son los algoritmos los que sustentan la IA, a la vez que esta se halla presente en infinidad de \u00e1mbitos de nuestro d\u00eda a d\u00eda, dichos algoritmos tienen efectos directos en la personas y la sociedad en general.<\/p>\n<p>Sin la \u00e9tica, la inteligencia artificial puede llevarnos a graves errores.<\/p>\n<h3>Directrices europeas<\/h3>\n<p>Existen muchos ejemplos y situaciones de aplicaciones de IA con consecuencias negativas \u00e9ticamente.<\/p>\n<p>Para poder solucionar esta situaci\u00f3n, la Uni\u00f3n Europea ha publicado unas <a href=\"https:\/\/op.europa.eu\/es\/publication-detail\/-\/publication\/d3988569-0434-11ea-8c1f-01aa75ed71a1\">directrices \u00e9ticas para una IA fiable<\/a>, basadas en principios que el dise\u00f1o \u00e9tico de los sistemas de IA debe respetar.<\/p>\n<p>Para la UE, la IA fiable significa que debe ser <strong>l\u00edcita, \u00e9tica y robusta<\/strong>. Tambi\u00e9n plantea 4 principios \u00e9ticos concretos para ello: <strong>respeto a la autonom\u00eda humana, prevenci\u00f3n del da\u00f1o, equidad y explicabilidad<\/strong>.<\/p>\n<p>A su vez, la IA fiable conlleva <strong>siete requisitos claves<\/strong>:<\/p>\n<ul>\n<li>Acci\u00f3n y supervisi\u00f3n humanas, incluidos los derechos fundamentales, la acci\u00f3n y la supervisi\u00f3n humanas.<\/li>\n<li>Solidez t\u00e9cnica y seguridad, incluida la capacidad de resistencia a los ataques y la seguridad, un plan de repliegue y la seguridad general, precisi\u00f3n, fiabilidad y reproducibilidad.<\/li>\n<li>Gesti\u00f3n de la privacidad y de los datos, incluido el respeto de la privacidad, la calidad y la integridad de los datos, as\u00ed como el acceso a estos.<\/li>\n<li>Transparencia, incluidas la trazabilidad, la explicabilidad y la comunicaci\u00f3n.<\/li>\n<li>Diversidad, no discriminaci\u00f3n y equidad, incluida la ausencia de sesgos injustos, la accesibilidad y el dise\u00f1o universal, as\u00ed como la participaci\u00f3n de las partes interesadas.<\/li>\n<li>Bienestar social y ambiental, incluida la sostenibilidad y el respeto del medio ambiente, el impacto social, la sociedad y la democracia.<\/li>\n<li>Rendici\u00f3n de cuentas, incluidas la auditabilidad, la minimizaci\u00f3n de efectos negativos y la notificaci\u00f3n de estos, la b\u00fasqueda de equilibrios y las compensaciones.<\/li>\n<\/ul>\n<h3>Soluciones \u00e9ticas<\/h3>\n<p>En este sentido, tambi\u00e9n existen herramientas que pueden lograr que los algoritmos respeten los derechos humanos: los agentes morales artificiales y la IA explicable.<\/p>\n<p>La<strong> IA explicable<\/strong> o <em>explainable AI<\/em> (XAI) tiene por objetivo seguir, entender y valorar las decisiones tomadas por un sistema de IA, logrando que un humano pueda entender qu\u00e9 proceso de razonamiento ha llevado al sistema a tomar esa decisi\u00f3n.<\/p>\n<p>Por su parte, existe la posibilidad de crear <strong>agentes morales artificiales<\/strong> o <em>artificial moral agents<\/em> (AMAs), incluidos en el c\u00f3digo y en los razonamientos de esta tecnolog\u00eda. Su principal funci\u00f3n ser\u00eda obtener decisiones aceptables \u00e9ticamente en IA.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>El objetivo de la robo\u00e9tica es \u201cevitar el mal uso de los robots y de productos y servicios basados en la inteligencia artificial (IA) contra la humanidad\u00bb.<\/p>\n","protected":false},"featured_media":10821,"template":"","meta":{"_acf_changed":false},"categories":[],"noticias":[192,193,191],"class_list":["post-10820","noticias","type-noticias","status-publish","has-post-thumbnail","hentry","noticias-ia","noticias-inteligencia-artificial","noticias-roboetica"],"acf":[],"_links":{"self":[{"href":"https:\/\/test.madridemprende.anovagroup.es\/en\/wp-json\/wp\/v2\/noticias\/10820"}],"collection":[{"href":"https:\/\/test.madridemprende.anovagroup.es\/en\/wp-json\/wp\/v2\/noticias"}],"about":[{"href":"https:\/\/test.madridemprende.anovagroup.es\/en\/wp-json\/wp\/v2\/types\/noticias"}],"version-history":[{"count":0,"href":"https:\/\/test.madridemprende.anovagroup.es\/en\/wp-json\/wp\/v2\/noticias\/10820\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/test.madridemprende.anovagroup.es\/en\/wp-json\/wp\/v2\/media\/10821"}],"wp:attachment":[{"href":"https:\/\/test.madridemprende.anovagroup.es\/en\/wp-json\/wp\/v2\/media?parent=10820"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/test.madridemprende.anovagroup.es\/en\/wp-json\/wp\/v2\/categories?post=10820"},{"taxonomy":"noticias","embeddable":true,"href":"https:\/\/test.madridemprende.anovagroup.es\/en\/wp-json\/wp\/v2\/noticias?post=10820"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}