{"id":3256,"date":"2021-08-29T21:18:20","date_gmt":"2021-08-29T21:18:20","guid":{"rendered":"http:\/\/uninomadasur.net\/?p=3256"},"modified":"2021-08-29T21:18:20","modified_gmt":"2021-08-29T21:18:20","slug":"la-democracia-en-la-era-de-la-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/uninomadasur.net\/?p=3256","title":{"rendered":"La democracia en la era de la inteligencia artificial"},"content":{"rendered":"<p><strong>Por Paul Nemitz<\/strong><\/p>\n<header class=\"uk-container uk-container-xsmall\">\n<div class=\"summary\">\n<div class=\"es-ar\">\n<p>En vista de la creciente expansi\u00f3n de la inteligencia artificial en las sociedades modernas, resulta necesario discutir c\u00f3mo puede servir para mantener y fortalecer el Estado de derecho, la democracia y los derechos humanos, en lugar de contribuir a su debilitamiento. Eso depender\u00e1 en gran medida de las formas de regulaci\u00f3n elegidas.<\/p>\n<\/div>\n<\/div>\n<\/header>\n<div class=\" uk-container uk-container-small \"><img decoding=\"async\" class=\"img-init-nota\" src=\"https:\/\/static.nuso.org\/media\/cache\/1c\/ab\/1cabbfdf426a8168d960e1d8480305bb.jpg\" alt=\"La democracia en la era de la inteligencia artificial\" \/><\/div>\n<div class=\"uk-container uk-container-small uk-container-expand-right\">\n<div id=\"body\" class=\"body\">\n<div id=\"nota-grid\" class=\"uk-grid-large uk-grid-divider uk-grid\">\n<div class=\"uk-width-expand uk-first-column\">\n<p>As\u00ed como debe hacerse una clara diferenciaci\u00f3n entre internet como tal, una estructura tecnol\u00f3gica que conecta personas e informaci\u00f3n, y lo que sucede en internet, tambi\u00e9n debe hacerse una diferenciaci\u00f3n entre el potencial te\u00f3ricamente positivo de la inteligencia artificial y los usos para los cuales se la desarrolla actualmente. Por lo tanto, un an\u00e1lisis diferenciado debe ir m\u00e1s all\u00e1 de una mera enumeraci\u00f3n de las ventajas de la internet gratuita o los beneficios<em> te\u00f3ricos<\/em> de la inteligencia artificial y tener en cuenta los efectos <em>reales<\/em> de las nuevas tecnolog\u00edas digitales y modelos de negocio en el \u00e1rea de internet e inteligencia artificial.<\/p>\n<p>Por tanto, la influencia de las empresas vinculadas a la inteligencia artificial no solo se limita a la tecnolog\u00eda subyacente, sino que tambi\u00e9n atraviesa el \u00e1mbito social. Es por ello que la concentraci\u00f3n de poder tecnol\u00f3gico, econ\u00f3mico y pol\u00edtico en manos de los \u00abcinco temibles\u00bb (Amazon, Apple, Facebook, Google, Microsoft), que ocupan el centro de la escena del desarrollo y uso comercial de la inteligencia artificial, tiene una especial importancia en este contexto.<\/p>\n<p class=\"title\">Ambici\u00f3n de poder<\/p>\n<p>Las megacorporaciones digitales no solo son capaces de ejercer una influencia pol\u00edtica y social masiva, tienen tambi\u00e9n los recursos financieros para comprar nuevos desarrollos y <em>startups<\/em> en el campo de la inteligencia artificial y en todas las dem\u00e1s \u00e1reas relevantes para su modelo de negocio, y eso es exactamente lo que hacen. Su pretensi\u00f3n de concentrar poder\u00edo y controlar pone en desventaja al cuarto poder: el periodismo cl\u00e1sico, que es tan importante para la democracia. Su selectivo negocio de publicidad priva al periodismo de su sustento. Es cierto que no son la \u00fanica raz\u00f3n de la muerte de los peri\u00f3dicos y del retroceso del periodismo cl\u00e1sico tanto en Europa como en Estados Unidos, pero son uno de los principales factores. Si bien es posible que algunas de sus investigaciones fundamentales sobre inteligencia artificial sean de acceso p\u00fablico, el trabajo mucho m\u00e1s elaborado sobre aplicaciones comerciales de inteligencia artificial se realiza en secreto. Los presupuestos en esta \u00e1rea superan con creces la inversi\u00f3n p\u00fablica de muchos pa\u00edses. Esta acumulaci\u00f3n de poder en manos de unos pocos debe ser observada de modo abarcativo: incluye el poder del dinero, el poder sobre la infraestructura democr\u00e1tica y el discurso p\u00fablico, el poder sobre los individuos a trav\u00e9s de la elaboraci\u00f3n de perfiles precisos y la supremac\u00eda en el campo de la inteligencia artificial. Los gigantes de internet han tenido logros sin precedentes como empresas: buena parte de su producci\u00f3n no est\u00e1 regulada, son dominantes en su mercado y son las empresas m\u00e1s rentables en la bolsa de valores. Tienen una inmensa influencia en la formaci\u00f3n de opini\u00f3n y en la pol\u00edtica, al tiempo que han conservado su popularidad entre el p\u00fablico.<\/p>\n<p>La cultura predominante de Silicon Valley sigue la \u00abideolog\u00eda californiana\u00bb. Sus ra\u00edces se remontan al movimiento juvenil de la d\u00e9cada de 1960. Parte de las metas de este movimiento era liberarse del dominio pol\u00edtico de Washington y del dominio tecnol\u00f3gico de <span class=\"smallcaps\">ibm<\/span>, la empresa de tecnolog\u00eda l\u00edder en ese entonces. En esencia, hab\u00eda un gran anhelo de libertad personal y de capacidad individual para actuar como efecto de la descentralizaci\u00f3n. El desarrollo de la primera computadora personal (<span class=\"smallcaps\">pc<\/span>) y el multipremiado spot publicitario de la Apple Macintosh realizado por el reconocido director Ridley Scott, en el que una joven se libera del \u00abGran Hermano\u00bb (\u00abY ver\u00e1s por qu\u00e9 1984 no ser\u00e1 como <em>1984<\/em>\u00bb), son una expresi\u00f3n de esta b\u00fasqueda de libertad individual y autorrealizaci\u00f3n, lejos de los imperativos sociales y de la dependencia del Estado. En su famosa \u00abDeclaraci\u00f3n de independencia del ciberespacio\u00bb, John Perry Barlow, activista estadounidense por los derechos civiles y compositor de la banda de rock Grateful Dead, rechaz\u00f3 cualquier regulaci\u00f3n legal de internet. Alegaba que las formas tradicionales de gobierno, que \u2013dir\u00edamos\u2013 pueden existir \u00fanicamente sobre la base de la ley y el orden, \u00abno tienen soberan\u00eda donde nosotros (los actores del ciberespacio) nos reunimos\u00bb. No fue casualidad que esta declaraci\u00f3n se hiciera p\u00fablica en 1996 en el marco del Foro Econ\u00f3mico Mundial de Davos.<\/p>\n<p class=\"title\">La lucha contra las leyes<\/p>\n<p>Esta idea tambi\u00e9n fue retomada en el discurso jur\u00eddico. David R. Johnson y David G. Post, jurisconsultos especializados en espacio digital, afirmaron que si los usuarios quieren establecer reglas en internet y estas no da\u00f1an a los no usuarios, entonces \u00abla ley del mundo f\u00edsico deber\u00eda ser revocada en favor de esta forma de autorregulaci\u00f3n\u00bb. Pero no fue solo la \u00abideolog\u00eda californiana\u00bb lo que alent\u00f3 el desacato de la ley. La ense\u00f1anza de innovaciones disruptivas, muy difundida en las escuelas de negocios, condujo en alg\u00fan momento a una comprensi\u00f3n de la ley como algo disruptivo. Esta lucha de las empresas tecnol\u00f3gicas y los activistas contra las nuevas leyes, que siguen poniendo la tecnolog\u00eda por encima de la democracia, contin\u00faa hasta el d\u00eda de hoy.<\/p>\n<p>Por ejemplo, Google insisti\u00f3 en que solo se le aplique la ley de California, ya que las b\u00fasquedas hechas desde Europa son respondidas desde los servidores californianos. Es m\u00e1s, se argument\u00f3 que los resultados de las b\u00fasquedas no deber\u00edan clasificarse como \u00abtratamiento de datos\u00bb. La fundamentaci\u00f3n: Google no es responsable de los resultados, ya que son producto del algoritmo automatizado y no pueden ser controlados por la empresa. Aqu\u00ed es donde se hacen evidentes la cosmovisi\u00f3n de la empresa y la manera de concebir el Estado de derecho: en primer lugar, la automatizaci\u00f3n en forma de algoritmo como servicio protege a la empresa mediadora de cualquier responsabilidad legal. Visto as\u00ed, el sue\u00f1o de John Perry Barlow se har\u00eda realidad: en la era digital, la tecnolog\u00eda tendr\u00eda prioridad sobre la jurisprudencia. En segundo lugar, si existiera cualquier forma de v\u00ednculo legal, este solo podr\u00eda existir en relaci\u00f3n con un orden global, presumiblemente dominado por la ley estadounidense y administrado por jueces estadounidenses. Este escenario ser\u00eda ideal para Google. Los costos se reducir\u00edan considerablemente, incluso si la empresa operara en diferentes jurisdicciones. Esto estar\u00eda totalmente en l\u00ednea con la idea de construir una \u00fanica estructura global de internet que no est\u00e9 dividida en diferentes jurisdicciones o fragmentada por normas nacionales y que sea muy dif\u00edcil de atacar legalmente para ciudadanos no estadounidenses.<\/p>\n<p>En este contexto, la reacci\u00f3n del Tribunal de Justicia de la Uni\u00f3n Europea (<span class=\"smallcaps\">tjue<\/span>), generalmente entendida como el \u00abretorno de la ley\u00bb, fue positiva: el Tribunal respondi\u00f3 al argumento de Google manteni\u00e9ndose en los l\u00edmites de la cuesti\u00f3n jur\u00eddica planteada, pero sin perder de vista las implicaciones m\u00e1s amplias de esta cuesti\u00f3n. Al final, los reclamos de Google fueron rechazados y as\u00ed se protegieron los derechos fundamentales de los ciudadanos europeos, sobre la base de la larga tradici\u00f3n europea de protecci\u00f3n de la privacidad y protecci\u00f3n de datos.<\/p>\n<p>Se puede especular sobre si el argumento de Google de no querer asumir la responsabilidad de los resultados del algoritmo de b\u00fasqueda fue usado previendo negar toda responsabilidad por los productos de la futura inteligencia artificial aut\u00f3noma. En cualquier caso, la respuesta del <span class=\"smallcaps\">tjue<\/span> en este caso fue clara. El presidente ejecutivo de Google se pronuncia actualmente en contra de una regulaci\u00f3n general de la inteligencia artificial. Alega que tal regulaci\u00f3n obstaculizar\u00eda la innovaci\u00f3n y que solo puede concebirse una regulaci\u00f3n espec\u00edfica de la inteligencia artificial por sectores. Lo que olvida es que se present\u00f3 el mismo patr\u00f3n argumentativo contra el Reglamento General de Protecci\u00f3n de Datos de la <span class=\"smallcaps\">ue<\/span>. Pero en vano, y con raz\u00f3n. Porque una normativa puramente sectorial deja sin regular demasiadas aplicaciones de la inteligencia artificial de uso general y, en su complejidad, abruma tanto a quien legisla como a la ciudadan\u00eda. Primero necesitamos fundamentos horizontales y generales. Luego se podr\u00e1n agregar especificaciones por sector.<\/p>\n<p class=\"title\">Cuestiones \u00e9ticas<\/p>\n<p>Cuando se pone todo esto en contexto, hay un denominador com\u00fan claro: el intento de evitar responsabilidades, tanto en la legislaci\u00f3n como en la jurisprudencia. Y todo surge de un peque\u00f1o grupo de empresas que tienen en sus manos un poder sin precedentes. El debate sobre las cuestiones \u00e9ticas de la inteligencia artificial ya ha expuesto los innumerables desaf\u00edos en el \u00e1mbito de los derechos fundamentales y el Estado de derecho en este contexto. Es evidente que la inteligencia artificial no puede servir al bien p\u00fablico sin reglas claras. El potencial de la inteligencia artificial obliga a no correr los mismos riesgos que cuando se introdujo internet, que en su momento provoc\u00f3 un vac\u00edo legal. Las posibilidades de esta nueva tecnolog\u00eda son tan inmensas que pueden causar estragos y da\u00f1os irreversibles a la sociedad. Pero mientras que hoy la inteligencia artificial es desarrollada por empresas gigantescas con presupuestos de miles de millones, est\u00e1n regresando los ingenuos argumentos con los que se caus\u00f3 mucho da\u00f1o en las fases tempranas de internet.<\/p>\n<p>Tambi\u00e9n est\u00e1 claro que los numerosos conflictos de intereses entre empresas y p\u00fablico en relaci\u00f3n con la inteligencia artificial no pueden resolverse mediante c\u00f3digos de \u00e9tica laxos ni autorregulaci\u00f3n. Pero eso no significa que las empresas no deban contribuir a la discusi\u00f3n sobre los desaf\u00edos \u00e9ticos y legales. Muchas de las personas que trabajan para estas empresas tienen las mejores intenciones y pueden hacer importantes aportes al debate. Tambi\u00e9n se puede observar una cierta diferenciaci\u00f3n en las actitudes hacia la legislaci\u00f3n, seg\u00fan sea el modelo de negocio. Microsoft, que gana mucho dinero por servicios al gobierno y la administraci\u00f3n p\u00fablica, se posiciona de manera m\u00e1s constructiva frente al Estado de derecho y la democracia que otras empresas.<\/p>\n<p>En vista de los enormes presupuestos con los que las megacorporaciones est\u00e1n presentes en muchos \u00e1mbitos de la ciencia, la sociedad civil y la opini\u00f3n p\u00fablica, es importante que todos quienes participan de la gran discusi\u00f3n sobre la regulaci\u00f3n de internet y las nuevas tecnolog\u00edas ofrezcan informaci\u00f3n clara sobre relaciones laborales, financiamiento u otras transferencias de servicios y expongan de manera abierta los conflictos de intereses.<\/p>\n<p>Resulta sorprendente hasta qu\u00e9 punto los defensores de una legislaci\u00f3n sobre inteligencia artificial estuvieron inicialmente a la defensiva, a pesar de que existe una larga historia de regulaciones legales en el \u00e1mbito de la tecnolog\u00eda. Todo arquitecto debe, en el curso de sus estudios universitarios, familiarizarse con las normas de construcci\u00f3n para salvaguardar el inter\u00e9s p\u00fablico, por ejemplo, en la construcci\u00f3n de edificios a prueba de derrumbes. Cada autom\u00f3vil debe superar varias pruebas para garantizar la seguridad vial. La introducci\u00f3n de los cinturones de seguridad obligatorios, muy resistidos por la industria automotriz y los clubes automovil\u00edsticos, finalmente redujo a la mitad la cantidad de muertes en carreteras. Una y otra vez, la sociedad ha visto que, ante la aparici\u00f3n de nuevas tecnolog\u00edas, es la regulaci\u00f3n legal y no la desregulaci\u00f3n lo que beneficia al inter\u00e9s p\u00fablico.<\/p>\n<p>Los est\u00edmulos para reflexionar sobre la inteligencia artificial no solo han demostrado la multitud de exigencias que las nuevas tecnolog\u00edas imponen a la legislaci\u00f3n, la democracia y los derechos individuales. Tambi\u00e9n han dado lugar a algunos cat\u00e1logos de reglas \u00e9ticas en esta \u00e1rea. Por ejemplo, Alan Winfield, profesor de \u00c9tica Rob\u00f3tica en la Universidad de Bristol, enumera diez c\u00f3digos de conducta relacionados con la inteligencia artificial. Las \u00faltimas contribuciones a esta lista son la declaraci\u00f3n del Grupo de Alto Nivel de la Comisi\u00f3n Europea sobre Inteligencia Artificial Fiable del 18 de abril de 2019 y el informe de la Comisi\u00f3n Alemana de \u00c9tica de Datos, presentado el 23 de octubre de 2019. Por tanto, no faltan propuestas sobre principios \u00e9ticos en el tratamiento de la inteligencia artificial.<\/p>\n<p>Un interrogante es si, despu\u00e9s de la experiencia con una internet libre de todo marco legal, nuestra democracia debe volver a exponerse al riesgo de una tecnolog\u00eda omnipresente y decisiva, que puede tener efectos negativos sustanciales si no se la regula. A diferencia de internet, la inteligencia artificial no es producto de unos pocos acad\u00e9micos e idealistas, sino de las poderos\u00edsimas empresas de internet que la controlan. Mientras tanto, algunos representantes de estas empresas han llegado recientemente a la misma conclusi\u00f3n y han pedido una legislaci\u00f3n sobre inteligencia artificial. Tambi\u00e9n la canciller alemana Angela Merkel ha pedido, durante la conferencia del g-7 en Jap\u00f3n, una regulaci\u00f3n legal de la inteligencia artificial, tal como lo es el Reglamento General de Protecci\u00f3n de Datos (<span class=\"smallcaps\">rgpd<\/span>). La presidenta de la Comisi\u00f3n Europea, Ursula von der Leyen, dijo, a modo de orientaci\u00f3n, que la Comisi\u00f3n Europea presentar\u00eda una propuesta para regular la inteligencia artificial dentro de los 100 d\u00edas posteriores a su asunci\u00f3n, ocurrida el 1o de noviembre de 2019<sup><a style=\"box-sizing: border-box; color: #919191; text-decoration: underline; cursor: help;\" title=\"&lt;p&gt;En 2021 se present\u00f3 un proyecto para avanzar en la regulaci\u00f3n. Ver Marimar Jim\u00e9nez: \u00abLa ue establece l\u00edneas rojas a la inteligencia artificial. \u00bfPor qu\u00e9, cu\u00e1les son, a qui\u00e9n afectan?\u00bb, suplemento \u00abCinco d\u00edas\u00bb en El Pa\u00eds, 22\/4\/2021 [N. del E.].&lt;\/p&gt;\" href=\"https:\/\/nuso.org\/articulo\/la-democracia-en-la-era-de-la-inteligencia-artificial\/#footnote-1\">1<\/a><\/sup>.Todos los argumentos que ahora se utilizan en contra de una ley de inteligencia artificial fueron expuestos antes de 1995, cuando se introdujo la primera directiva de protecci\u00f3n de datos personales en la <span class=\"smallcaps\">ue<\/span>. Luego se lo volvi\u00f3 a hacer durante las negociaciones sobre el <span class=\"smallcaps\">rgpd<\/span> en los a\u00f1os 2012 a 2016. Ninguno de los argumentos pudo convencer a los legisladores, y con raz\u00f3n. La afirmaci\u00f3n de que la ley no puede seguir el veloz ritmo de desarrollo de la tecnolog\u00eda o los modelos comerciales ha sido refutada por la legislaci\u00f3n europea tecnol\u00f3gicamente neutra<sup><a style=\"box-sizing: border-box; color: #919191; text-decoration: underline; cursor: help;\" title=\"&lt;p&gt;El principio de neutralidad tecnol\u00f3gica\u00a0sostiene que el Estado no ha de imponer preferencias a favor o en contra de una determinada tecnolog\u00eda [N. del E.].&lt;\/p&gt;\" href=\"https:\/\/nuso.org\/articulo\/la-democracia-en-la-era-de-la-inteligencia-artificial\/#footnote-2\">2<\/a><\/sup>. El <span class=\"smallcaps\">rgpd<\/span> es un ejemplo de legislaci\u00f3n moderna y tecnol\u00f3gicamente neutra, cuyo significado y relevancia evolucionan a la par del progreso tecnol\u00f3gico, incluida la inteligencia artificial.<\/p>\n<p class=\"title\">Falacia y afirmaciones<\/p>\n<p>La afirmaci\u00f3n de que el derecho no es lo suficientemente preciso para regular tecnolog\u00edas complejas y que una ley que no se adentre absolutamente en los detalles de un c\u00f3digo preciso y f\u00e1cil de usar no puede ser una buena ley constituye otra falacia por parte de los programadores. Por definici\u00f3n, el proceso democr\u00e1tico de elaboraci\u00f3n de leyes es un acuerdo. El <span class=\"smallcaps\">rgpd<\/span> se negoci\u00f3, durante el procedimiento parlamentario, sobre la base de casi 4.000 sugerencias individuales de mejora.<\/p>\n<p>Las leyes (generalmente) las hacen personas razonables y, en caso de un conflicto legal, las interpretan jueces razonables. Este proceso abierto de elaboraci\u00f3n de leyes y su posterior interpretaci\u00f3n le confiere a la ley flexibilidad para adaptarse a las nuevas circunstancias. Las leyes no tienen que reescribirse una y otra vez como los c\u00f3digos de programaci\u00f3n, que deben ser revisados constantemente desde la versi\u00f3n 1.0 en adelante.<\/p>\n<p>Para decirlo claramente: exigir que una ley sea tan precisa o tan r\u00e1pidamente actualizable como un c\u00f3digo de programaci\u00f3n es antidemocr\u00e1tico. Esta exigencia ignora tanto el principio de deliberaci\u00f3n y acuerdo en una democracia como el tiempo requerido para el debido proceso.<\/p>\n<p>Por cierto, los grupos de presi\u00f3n no tuvieron ning\u00fan problema en evaluar los diversos anteproyectos del <span class=\"smallcaps\">rgpd<\/span> de manera completamente contradictoria: por un lado, como demasiado imprecisos para crear seguridad jur\u00eddica y, por el otro, como demasiado detallistas y no suficientemente abiertos y flexibles. Estas cr\u00edticas encontradas prueban que se deber evitar la ley a toda costa recurriendo al descr\u00e9dito. La afirmaci\u00f3n de que la ley es demasiado inflexible para seguir el ritmo de los desarrollos tecnol\u00f3gicos es b\u00e1sicamente una forma m\u00e1s elegante de parafrasear lo que los neoliberales siempre han dicho: no queremos ninguna obligaci\u00f3n legal, porque entonces se nos podr\u00edan atribuir responsabilidades legales.<\/p>\n<p>Por lo dem\u00e1s, quienes abogan por una \u00e9tica de la inteligencia artificial afirman lo mismo. El mundo de los negocios no tiene problemas con los c\u00f3digos \u00e9ticos, ya que estos carecen de legitimaci\u00f3n democr\u00e1tica y no pueden ser impuestos por fuerza de ley. Pero esta es precisamente la principal ventaja del derecho sobre la \u00e9tica: con la veros\u00edmil amenaza de sanciones anima a los desarrolladores a trabajar en pos del inter\u00e9s p\u00fablico.<\/p>\n<p>Toda tecnolog\u00eda tiene que convivir con la realidad de que la ley le marque l\u00edmites. Es hora de que Silicon Valley y la industria digital de internet acepten esta necesidad democr\u00e1tica. En un momento en que internet y la inteligencia artificial lo atraviesan todo, la falta de regulaci\u00f3n de estas tecnolog\u00edas claves podr\u00eda significar el fin de la democracia. Las reglas \u00e9ticas pueden ser una etapa preliminar y una ayuda orientadora en el camino hacia la legislaci\u00f3n y pueden proporcionar contenido para leyes posteriores. Pero no pueden reemplazar la ley, carecen de la legitimidad democr\u00e1tica y la naturaleza vinculante con que los gobiernos y los tribunales pueden hacer cumplir las leyes.<\/p>\n<p>Mark Zuckerberg, fundador de Facebook, y Brad Smith, presidente de Microsoft, han pedido recientemente en textos program\u00e1ticos una legislaci\u00f3n. Pero cuando esto se concreta, las empresas vuelven a lanzar la m\u00e1quina de <em>lobby<\/em> contra una legislaci\u00f3n eficaz para salvaguardar los datos y la privacidad. Esto se pudo observar hace muy poco en <span class=\"smallcaps\">eeuu<\/span>, tanto en California como en el estado de Washington, donde Microsoft tiene su sede. Adem\u00e1s del derecho, tambi\u00e9n habr\u00e1 espacio para una \u00e9tica que vaya m\u00e1s all\u00e1 de lo que exige la ley: las normas \u00e9ticas internas de las empresas son buenas si son coherentes con la legislaci\u00f3n del pa\u00eds en cuesti\u00f3n y si van m\u00e1s all\u00e1, por ejemplo, en lo que respecta al inter\u00e9s p\u00fablico.<\/p>\n<p>Muchas de las cosas buenas que quieren hacer las empresas de Silicon Valley son bienvenidas. Pero esto no puede eximirlas de actuar dentro de la ley y el orden y respetando el proceso democr\u00e1tico. Tambi\u00e9n est\u00e1 completamente claro que el <span class=\"smallcaps\">rgpd<\/span> debe aplicarse siempre que la inteligencia artificial trabaje con datos personales. El <span class=\"smallcaps\">rgpd<\/span> contiene derechos importantes para los consumidores sobre c\u00f3mo se pueden usar sus datos, y estas reglas tambi\u00e9n influir\u00e1n en el dise\u00f1o de una inteligencia artificial. Los principios de protecci\u00f3n de datos del <span class=\"smallcaps\">rgpd<\/span> son una gu\u00eda importante para la inteligencia artificial, al igual que los l\u00edmites al tratamiento automatizado de datos y los derechos a la informaci\u00f3n de los afectados. Tambi\u00e9n est\u00e1 cobrando importancia, en lo que respecta a la inteligencia artificial, la evaluaci\u00f3n de las consecuencias del tratamiento de datos personales para las personas afectadas, necesaria en determinadas condiciones. En este aspecto, no se necesita ninguna legislaci\u00f3n nueva. Sin embargo, los principios del <span class=\"smallcaps\">rgpd<\/span> con respecto a la inteligencia artificial tambi\u00e9n deben aplicarse al tratamiento mediante inteligencia artificial de datos que no son personales.<\/p>\n<p>En el discurso democr\u00e1tico, no obstante, es igualmente importante saber si el interlocutor es una persona o una m\u00e1quina. Si las m\u00e1quinas participan en el discurso pol\u00edtico sin ser identificadas como tales, o si se hacen pasar por personas impunemente, puede producirse una grave distorsi\u00f3n del discurso, lo cual ser\u00eda insostenible para una democracia. Hasta ahora, ninguna ley nos garantiza que seremos informados si quien entabla un di\u00e1logo con nosotros en un contexto pol\u00edtico es una m\u00e1quina.<\/p>\n<p>Sin embargo, un discurso pol\u00edtico transparente entre personas es la clave de la democracia. El \u00abprincipio de materialidad\u00bb estipula que se debe, por ley, dejar claro si quien est\u00e1 hablando es una m\u00e1quina o una persona. Las m\u00e1quinas no identificadas y, m\u00e1s a\u00fan, las m\u00e1quinas disfrazadas de personas deben ser sancionadas. Quienes controlan la infraestructura del discurso pol\u00edtico deben asumir la responsabilidad de establecer una transparencia total. Se necesitan nuevas leyes para ello.<\/p>\n<p>Pero podemos ser optimistas en cuanto a que las regulaciones detalladas de la <span class=\"smallcaps\">ue<\/span> para la lucha contra la discriminaci\u00f3n y la protecci\u00f3n del consumidor tambi\u00e9n se aplicar\u00e1n en el campo de la inteligencia artificial. Teniendo en cuenta esto, es necesario considerar algunos principios b\u00e1sicos de la legislaci\u00f3n sobre la inteligencia artificial.<\/p>\n<p>Si bien en Europa la ponderaci\u00f3n parlamentaria de la tecnolog\u00eda basada en el principio de responsabilidad de Hans Jonas es ya una rutina y considera que la evaluaci\u00f3n del impacto es un elemento clave del principio de precauci\u00f3n, esto no es as\u00ed en <span class=\"smallcaps\">eeuu<\/span>. All\u00ed, la Oficina de Evaluaci\u00f3n de Tecnolog\u00eda (<span class=\"smallcaps\">ota<\/span>, por sus siglas en ingl\u00e9s) se cerr\u00f3 durante el gobierno de Ronald Reagan, una victoria temprana para el movimiento anticiencia. Hillary Clinton anunci\u00f3 en su campa\u00f1a electoral de 2016 que quer\u00eda reabrir este \u00f3rgano o uno similar.<\/p>\n<p class=\"title\">Evaluaci\u00f3n de impacto en tres niveles<\/p>\n<p>En Europa, sin embargo, siguen vigentes el principio y el m\u00e9todo de evaluaci\u00f3n de los efectos a corto y largo plazo de las nuevas tecnolog\u00edas y el consiguiente asesoramiento pol\u00edtico. La Red de Evaluaci\u00f3n de Tecnolog\u00eda Parlamentaria Europea (<span class=\"smallcaps\">epta<\/span>, por sus siglas en ingl\u00e9s) re\u00fane los m\u00e9todos y las evaluaciones de impacto para los parlamentos europeos en una base de datos com\u00fan. Para fortalecer la confianza en la tecnolog\u00eda en la era de la inteligencia artificial, en tiempos en que la tecnolog\u00eda gana cada vez m\u00e1s terreno en todas las \u00e1reas de nuestras vidas, es necesaria una evaluaci\u00f3n de impacto en tres niveles.<\/p>\n<p>Primero, como se ha descripto, una evaluaci\u00f3n parlamentaria de impacto en el nivel pol\u00edtico y legislativo. El objetivo en este caso es averiguar qu\u00e9 \u00e1reas afectar\u00e1 una nueva tecnolog\u00eda y qu\u00e9 debe hacer el Poder Legislativo para que sea preservado el inter\u00e9s p\u00fablico. Idealmente, esta evaluaci\u00f3n de impacto deber\u00eda tener lugar antes de que se utilicen tecnolog\u00edas de alto riesgo. El poder de decisi\u00f3n con respecto a las consecuencias que han sido examinadas en una evaluaci\u00f3n de impacto hecha por expertos debe estar en manos del gobierno o del Poder Legislativo, lo que en el nivel de la <span class=\"smallcaps\">ue<\/span> ser\u00eda \u00e1rea de responsabilidad de la Comisi\u00f3n y el Consejo, as\u00ed como del Parlamento a modo de colegislativo.<\/p>\n<p>El segundo nivel se refiere a los desarrolladores y usuarios de nuevas tecnolog\u00edas. Ser\u00eda importante que se introdujera en relaci\u00f3n con la inteligencia artificial una obligaci\u00f3n legal para las empresas de realizar una evaluaci\u00f3n de impacto de sus productos. Tal obligaci\u00f3n legal ya existe para datos personales que se utilizan en procesos automatizados de toma de decisiones. Esto deber\u00eda extenderse a todos los \u00e1mbitos de la democracia, el Estado de derecho y los derechos fundamentales. Al menos si la inteligencia artificial tiene potencial para ser utilizada en el \u00e1mbito del ejercicio p\u00fablico del poder, es decir, en el \u00e1mbito democr\u00e1tico y pol\u00edtico o en el \u00e1mbito de los servicios de inter\u00e9s general, independientemente de si se tratan datos personales o no.<\/p>\n<p>Las evaluaciones de impacto en el nivel de desarrollador y usuario favorecer\u00edan la comprensi\u00f3n p\u00fablica de la inteligencia artificial all\u00ed donde actualmente sigue faltando transparencia y conocimiento sobre los efectos. Las evaluaciones tambi\u00e9n ayudar\u00edan a que los directores ejecutivos y desarrolladores admitan el poder que realmente ejercen mediante sus productos. As\u00ed podr\u00eda desarrollarse en la industria tecnol\u00f3gica una nueva cultura de responsabilidad por la democracia, el Estado de derecho y los derechos fundamentales.<\/p>\n<p>Los est\u00e1ndares para ese tipo de evaluaciones de impacto antes de la difusi\u00f3n de la inteligencia artificial deber\u00edan establecerse en una ley redactada en t\u00e9rminos generales, de manera similar a la obligaci\u00f3n de realizar una evaluaci\u00f3n de impacto en el <span class=\"smallcaps\">rgpd<\/span>. El Estado debe controlar el cumplimiento y debe haber sanciones severas en caso de incumplimiento. Si la inteligencia artificial va a ser utilizada por el Estado o se va a difundir ampliamente en la sociedad, la evaluaci\u00f3n de impacto deber\u00eda ser publicada. Si la tecnolog\u00eda es de alto riesgo, el gobierno debe realizar sus propios an\u00e1lisis y elaborar un plan para minimizar riesgos. Sin diferenciar entre sector p\u00fablico y privado, la resoluci\u00f3n del Parlamento Europeo del 16 de febrero de 2017 con recomendaciones destinadas a la Comisi\u00f3n Europea sobre normas de derecho civil sobre rob\u00f3tica (2015\/2103\/<span class=\"smallcaps\">inl<\/span>) representa el plan mejor desarrollado hasta la fecha para manejar la inteligencia artificial. Contiene certificaciones <em>ex ante<\/em> y el marco legal para la investigaci\u00f3n, el desarrollo y el uso.<\/p>\n<p>En el tercer nivel, a las personas deber\u00eda asistirlas el derecho legal de estar informadas sobre la funcionalidad exacta de la inteligencia artificial que est\u00e1n utilizando. \u00bfQu\u00e9 l\u00f3gicas sigue? \u00bfC\u00f3mo afecta su uso los propios intereses o los intereses de terceros? Esta obligaci\u00f3n de proporcionar informaci\u00f3n tambi\u00e9n deber\u00eda existir aunque no se est\u00e9n procesando datos personales. En este caso, ya existe la obligaci\u00f3n legal en el <span class=\"smallcaps\">rgpd<\/span>.<\/p>\n<p>En este contexto, debe rechazarse la exigencia de los gigantes tecnol\u00f3gicos de mantener en secreto los modos de funcionamiento y los procesos de toma de decisiones de la inteligencia artificial. Ya existen numerosos proyectos de investigaci\u00f3n sobre la explicabilidad de la inteligencia artificial. Y aunque existe al menos la obligaci\u00f3n legal de proporcionar informaci\u00f3n cuando est\u00e1n involucrados actores estatales, la realidad es que las empresas mantienen mayormente en secreto los modos en que funciona su inteligencia artificial y las autoridades p\u00fablicas no pueden cumplir con su obligaci\u00f3n de proporcionar informaci\u00f3n si quieren utilizar esta tecnolog\u00eda.<\/p>\n<p>Por todas estas razones, necesitamos una profunda evaluaci\u00f3n de impacto de la inteligencia artificial en los tres niveles mencionados para seguir adelante con el di\u00e1logo entre tecnolog\u00eda y democracia. Esto es crucial en un momento en que la inteligencia artificial se est\u00e1 volviendo omnipresente e influye cada vez m\u00e1s en nuestras vidas. Si del debate p\u00fablico resulta una nueva conciencia de la responsabilidad por la democracia, los derechos fundamentales y el Estado de derecho, entonces la inteligencia artificial se habr\u00e1 ganado una buena cuota de confianza y aceptaci\u00f3n en la sociedad.<\/p>\n<div id=\"stop-share\"><\/div>\n<\/div>\n<div class=\"uk-width-1-3@s\">\n<div class=\"related\">\n<div>\n<div>\n<article class=\"article_related uk-transition-toggle uk-card  uk-card-small uk-margin-bottom \">\n<div class=\" \">\n<div class=\"authors \">Notas:<\/div>\n<\/div>\n<\/article>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<div class=\" uk-container uk-container-xsmall \">\n<ul class=\"footnotes\">\n<li id=\"footnote-1\"><span class=\"number\">1.<\/span>En 2021 se present\u00f3 un proyecto para avanzar en la regulaci\u00f3n. Ver Marimar Jim\u00e9nez: \u00abLa ue establece l\u00edneas rojas a la inteligencia artificial. \u00bfPor qu\u00e9, cu\u00e1les son, a qui\u00e9n afectan?\u00bb, suplemento \u00abCinco d\u00edas\u00bb en El Pa\u00eds, 22\/4\/2021 [N. del E.].<\/li>\n<li id=\"footnote-2\"><span class=\"number\">2.<\/span>El principio de neutralidad tecnol\u00f3gica\u00a0sostiene que el Estado no ha de imponer preferencias a favor o en contra de una determinada tecnolog\u00eda [N. del E.].<\/li>\n<\/ul>\n<\/div>\n<p>Fuente: https:\/\/nuso.org\/articulo\/la-democracia-en-la-era-de-la-inteligencia-artificial\/<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Por Paul Nemitz En vista de la creciente expansi\u00f3n de la inteligencia artificial en las sociedades modernas, resulta necesario discutir c\u00f3mo puede servir para mantener y fortalecer el Estado de derecho, la democracia y los derechos humanos, en lugar de contribuir a su debilitamiento. Eso depender\u00e1 en gran medida de las formas de regulaci\u00f3n elegidas. [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":3257,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","enabled":false},"version":2}},"categories":[2],"tags":[],"class_list":["post-3256","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"jetpack_publicize_connections":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v23.4 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>La democracia en la era de la inteligencia artificial - UninomadaSUR<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/uninomadasur.net\/?p=3256\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"La democracia en la era de la inteligencia artificial - UninomadaSUR\" \/>\n<meta property=\"og:description\" content=\"Por Paul Nemitz En vista de la creciente expansi\u00f3n de la inteligencia artificial en las sociedades modernas, resulta necesario discutir c\u00f3mo puede servir para mantener y fortalecer el Estado de derecho, la democracia y los derechos humanos, en lugar de contribuir a su debilitamiento. Eso depender\u00e1 en gran medida de las formas de regulaci\u00f3n elegidas. [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/uninomadasur.net\/?p=3256\" \/>\n<meta property=\"og:site_name\" content=\"UninomadaSUR\" \/>\n<meta property=\"article:published_time\" content=\"2021-08-29T21:18:20+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/08\/39757237005_0c52748a2e_z.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"640\" \/>\n\t<meta property=\"og:image:height\" content=\"426\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"admin\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"admin\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"23 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/uninomadasur.net\/?p=3256#article\",\"isPartOf\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=3256\"},\"author\":{\"name\":\"admin\",\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/person\/c7a35ca2374cf2966d7c68ad81604c21\"},\"headline\":\"La democracia en la era de la inteligencia artificial\",\"datePublished\":\"2021-08-29T21:18:20+00:00\",\"dateModified\":\"2021-08-29T21:18:20+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=3256\"},\"wordCount\":4599,\"commentCount\":0,\"publisher\":{\"@id\":\"https:\/\/uninomadasur.net\/#organization\"},\"image\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=3256#primaryimage\"},\"thumbnailUrl\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/08\/39757237005_0c52748a2e_z.jpg\",\"articleSection\":[\"Blog\"],\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"CommentAction\",\"name\":\"Comment\",\"target\":[\"https:\/\/uninomadasur.net\/?p=3256#respond\"]}]},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/uninomadasur.net\/?p=3256\",\"url\":\"https:\/\/uninomadasur.net\/?p=3256\",\"name\":\"La democracia en la era de la inteligencia artificial - UninomadaSUR\",\"isPartOf\":{\"@id\":\"https:\/\/uninomadasur.net\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=3256#primaryimage\"},\"image\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=3256#primaryimage\"},\"thumbnailUrl\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/08\/39757237005_0c52748a2e_z.jpg\",\"datePublished\":\"2021-08-29T21:18:20+00:00\",\"dateModified\":\"2021-08-29T21:18:20+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=3256#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/uninomadasur.net\/?p=3256\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/uninomadasur.net\/?p=3256#primaryimage\",\"url\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/08\/39757237005_0c52748a2e_z.jpg\",\"contentUrl\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/08\/39757237005_0c52748a2e_z.jpg\",\"width\":640,\"height\":426},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/uninomadasur.net\/?p=3256#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Inicio\",\"item\":\"https:\/\/uninomadasur.net\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"La democracia en la era de la inteligencia artificial\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/uninomadasur.net\/#website\",\"url\":\"https:\/\/uninomadasur.net\/\",\"name\":\"UninomadaSUR\",\"description\":\"UninomadaSUR\",\"publisher\":{\"@id\":\"https:\/\/uninomadasur.net\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/uninomadasur.net\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/uninomadasur.net\/#organization\",\"name\":\"UninomadaSUR\",\"url\":\"https:\/\/uninomadasur.net\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2018\/09\/uni-logo.png\",\"contentUrl\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2018\/09\/uni-logo.png\",\"width\":260,\"height\":94,\"caption\":\"UninomadaSUR\"},\"image\":{\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/logo\/image\/\"}},{\"@type\":\"Person\",\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/person\/c7a35ca2374cf2966d7c68ad81604c21\",\"name\":\"admin\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/36436a50c876208a9dab2a6cf1785c4f?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/36436a50c876208a9dab2a6cf1785c4f?s=96&d=mm&r=g\",\"caption\":\"admin\"},\"url\":\"https:\/\/uninomadasur.net\/?author=1\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"La democracia en la era de la inteligencia artificial - UninomadaSUR","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/uninomadasur.net\/?p=3256","og_locale":"es_ES","og_type":"article","og_title":"La democracia en la era de la inteligencia artificial - UninomadaSUR","og_description":"Por Paul Nemitz En vista de la creciente expansi\u00f3n de la inteligencia artificial en las sociedades modernas, resulta necesario discutir c\u00f3mo puede servir para mantener y fortalecer el Estado de derecho, la democracia y los derechos humanos, en lugar de contribuir a su debilitamiento. Eso depender\u00e1 en gran medida de las formas de regulaci\u00f3n elegidas. [&hellip;]","og_url":"https:\/\/uninomadasur.net\/?p=3256","og_site_name":"UninomadaSUR","article_published_time":"2021-08-29T21:18:20+00:00","og_image":[{"width":640,"height":426,"url":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/08\/39757237005_0c52748a2e_z.jpg","type":"image\/jpeg"}],"author":"admin","twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"admin","Tiempo de lectura":"23 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/uninomadasur.net\/?p=3256#article","isPartOf":{"@id":"https:\/\/uninomadasur.net\/?p=3256"},"author":{"name":"admin","@id":"https:\/\/uninomadasur.net\/#\/schema\/person\/c7a35ca2374cf2966d7c68ad81604c21"},"headline":"La democracia en la era de la inteligencia artificial","datePublished":"2021-08-29T21:18:20+00:00","dateModified":"2021-08-29T21:18:20+00:00","mainEntityOfPage":{"@id":"https:\/\/uninomadasur.net\/?p=3256"},"wordCount":4599,"commentCount":0,"publisher":{"@id":"https:\/\/uninomadasur.net\/#organization"},"image":{"@id":"https:\/\/uninomadasur.net\/?p=3256#primaryimage"},"thumbnailUrl":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/08\/39757237005_0c52748a2e_z.jpg","articleSection":["Blog"],"inLanguage":"es","potentialAction":[{"@type":"CommentAction","name":"Comment","target":["https:\/\/uninomadasur.net\/?p=3256#respond"]}]},{"@type":"WebPage","@id":"https:\/\/uninomadasur.net\/?p=3256","url":"https:\/\/uninomadasur.net\/?p=3256","name":"La democracia en la era de la inteligencia artificial - UninomadaSUR","isPartOf":{"@id":"https:\/\/uninomadasur.net\/#website"},"primaryImageOfPage":{"@id":"https:\/\/uninomadasur.net\/?p=3256#primaryimage"},"image":{"@id":"https:\/\/uninomadasur.net\/?p=3256#primaryimage"},"thumbnailUrl":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/08\/39757237005_0c52748a2e_z.jpg","datePublished":"2021-08-29T21:18:20+00:00","dateModified":"2021-08-29T21:18:20+00:00","breadcrumb":{"@id":"https:\/\/uninomadasur.net\/?p=3256#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/uninomadasur.net\/?p=3256"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/uninomadasur.net\/?p=3256#primaryimage","url":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/08\/39757237005_0c52748a2e_z.jpg","contentUrl":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/08\/39757237005_0c52748a2e_z.jpg","width":640,"height":426},{"@type":"BreadcrumbList","@id":"https:\/\/uninomadasur.net\/?p=3256#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Inicio","item":"https:\/\/uninomadasur.net\/"},{"@type":"ListItem","position":2,"name":"La democracia en la era de la inteligencia artificial"}]},{"@type":"WebSite","@id":"https:\/\/uninomadasur.net\/#website","url":"https:\/\/uninomadasur.net\/","name":"UninomadaSUR","description":"UninomadaSUR","publisher":{"@id":"https:\/\/uninomadasur.net\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/uninomadasur.net\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Organization","@id":"https:\/\/uninomadasur.net\/#organization","name":"UninomadaSUR","url":"https:\/\/uninomadasur.net\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/uninomadasur.net\/#\/schema\/logo\/image\/","url":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2018\/09\/uni-logo.png","contentUrl":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2018\/09\/uni-logo.png","width":260,"height":94,"caption":"UninomadaSUR"},"image":{"@id":"https:\/\/uninomadasur.net\/#\/schema\/logo\/image\/"}},{"@type":"Person","@id":"https:\/\/uninomadasur.net\/#\/schema\/person\/c7a35ca2374cf2966d7c68ad81604c21","name":"admin","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/uninomadasur.net\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/36436a50c876208a9dab2a6cf1785c4f?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/36436a50c876208a9dab2a6cf1785c4f?s=96&d=mm&r=g","caption":"admin"},"url":"https:\/\/uninomadasur.net\/?author=1"}]}},"jetpack_featured_media_url":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/08\/39757237005_0c52748a2e_z.jpg","jetpack_sharing_enabled":true,"jetpack_shortlink":"https:\/\/wp.me\/paDeUS-Qw","_links":{"self":[{"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/posts\/3256"}],"collection":[{"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=3256"}],"version-history":[{"count":1,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/posts\/3256\/revisions"}],"predecessor-version":[{"id":3258,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/posts\/3256\/revisions\/3258"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/media\/3257"}],"wp:attachment":[{"href":"https:\/\/uninomadasur.net\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=3256"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=3256"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=3256"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}