{"id":4188,"date":"2024-06-05T14:43:10","date_gmt":"2024-06-05T14:43:10","guid":{"rendered":"http:\/\/uninomadasur.net\/?p=4188"},"modified":"2024-06-05T14:43:10","modified_gmt":"2024-06-05T14:43:10","slug":"ana-valdivia-investigadora-en-inteligencia-artificial-de-la-universidad-de-oxford-si-el-algoritmo-es-racista-es-porque-se-ha-entrenado-con-datos-racistas","status":"publish","type":"post","link":"https:\/\/uninomadasur.net\/?p=4188","title":{"rendered":"Ana Valdivia, investigadora en inteligencia artificial de la Universidad De Oxford: \u201cSi el algoritmo es racista es porque se ha entrenado con datos racistas\u201d"},"content":{"rendered":"<div class=\"intro\">\n<p>Ana Valdivia (Barcelona, 1990) es profesora e investigadora en Inteligencia Artificial, Gobierno y Pol\u00edticas en el Oxford Internet Institute de la Universidad de Oxford. Matem\u00e1tica e inform\u00e1tica, ha estudiado la influencia en las sociedades de la recopilaci\u00f3n masiva de datos o el uso de algoritmos en las fronteras. Actualmente su trabajo se centra en los impactos medioambientales y sociales de la inteligencia artificial. Colabora con organizaciones como AlgoRace, que analiza los usos de la IA desde una perspectiva antirracista, y escribe en el blog <i>La paradoja de Jevons<\/i>. Atiende a CTXT por videoconferencia.<\/p>\n<\/div>\n<div class=\"texto\">\n<p>Por Elena de Sus \/ CTXT<\/p>\n<p>Ya que es usted matem\u00e1tica e inform\u00e1tica, me gustar\u00eda pedirle en primer lugar que nos explique qu\u00e9 es eso que llamamos inteligencia artificial y hasta d\u00f3nde puede llegar, porque claro, tenemos a los se\u00f1ores de OpenAI hablando de \u201criesgos catastr\u00f3ficos para la humanidad\u201d&#8230;<\/p>\n<p>Pues a ver, \u00bfqu\u00e9 es la inteligencia artificial? A m\u00ed me gusta mucho la definici\u00f3n que est\u00e1 reflejada en la nueva Ley de Inteligencia Artificial de la Uni\u00f3n Europea. Explica que es un conjunto de <i>hardware y software<\/i> en el que un algoritmo se programa con un objetivo y llega a alcanzar ese objetivo de la manera m\u00e1s eficiente, algor\u00edtmicamente hablando, con datos.<\/p>\n<p>O sea, b\u00e1sicamente es un algoritmo que se programa en un ordenador, o en un servidor, y que alcanza un objetivo aprendiendo de los datos que le han sido dados. No es algo nuevo. El concepto de inteligencia artificial se acu\u00f1\u00f3 en 1956 en Estados Unidos, lo que pasa es que en aquella \u00e9poca la capacidad computacional de los ordenadores no era la que tenemos ahora, ni las sociedades estaban tan \u201cdatificadas\u201d: hoy en d\u00eda se recogen muchos m\u00e1s datos que en 1956. Entonces, se ha producido una explosi\u00f3n de esta tecnolog\u00eda porque hay ordenadores m\u00e1s potentes y hay datos con los que entrenar esos algoritmos en esos ordenadores potentes.<\/p>\n<p>En esta definici\u00f3n de la ley europea tambi\u00e9n se explica que hay diferentes t\u00e9cnicas en las que se puede basar un algoritmo de inteligencia artificial, que son el aprendizaje autom\u00e1tico, el aprendizaje profundo, algoritmos basados en reglas predefinidas o m\u00e9todos m\u00e1s estad\u00edsticos como la heur\u00edstica. Son conceptos muy t\u00e9cnicos, pero creo que esa definici\u00f3n est\u00e1 muy bien.<\/p>\n<p>\u00bfHasta d\u00f3nde puede llegar esta tecnolog\u00eda? Pues eso depende de la sociedad y de las manos en las que caiga. Yo publiqu\u00e9 un escrito en 2020 en el que hablaba <a class=\"spip_out\" href=\"https:\/\/www.elsaltodiario.com\/paradoja-jevons-ciencia-poder\/sobre-el-mito-de-la-inteligencia-artificial-y-el-futuro-que-no-vendra\" target=\"_blank\" rel=\"external noopener noreferrer\">sobre los mitos de la inteligencia artificial<\/a>. Predec\u00eda que en los siguientes a\u00f1os los avances de la inteligencia artificial iban a recaer en manos de empresas privadas porque son las que tienen la capacidad de pagar la infraestructura para entrenar algoritmos como ChatGPT. Y es lo que est\u00e1 pasando. Desde las universidades ya nos hemos quedado muy cortas porque no tenemos esa capacidad computacional.<\/p>\n<p>La IA llegar\u00e1 hasta donde quieran estas empresas privadas y hasta donde la regulaci\u00f3n les permita. Ahora se le est\u00e1n poniendo trabas a OpenAI con los datos, por el tema del <i>copyright<\/i>. Uno de los talones de Aquiles de la inteligencia artificial son los datos. Sin ellos no puedes entrenar algoritmos. ChatGPT se ha entrenado extrayendo todos los datos de internet, pero muchos ten\u00edan un <i>copyright<\/i>\u2026<\/p>\n<p><strong>Ha mencionado la gran cantidad de recursos que hacen falta para sacar adelante estos sistemas y creo que eso es lo que est\u00e1 estudiando ahora mismo. No s\u00e9 si podr\u00eda contar un poco de eso, de la parte m\u00e1s \u201cf\u00edsica\u201d de la IA.<\/strong><\/p>\n<p>Llevo muchos a\u00f1os investigando la inteligencia artificial y siempre he analizado la parte del c\u00f3digo: c\u00f3mo crear algoritmos que sean m\u00e1s transparentes o m\u00e1s justos, c\u00f3mo mitigar los sesgos, etc.<\/p>\n<p>En los \u00faltimos a\u00f1os me he ido dando cuenta de que la parte de la infraestructura, de la materialidad de la inteligencia artificial, estaba muy poco analizada. Y creo que es algo que se debe tener en cuenta en estos marcos de rendici\u00f3n de cuentas algor\u00edtmica. Cuando t\u00fa auditas un algoritmo, no solo tienes que auditar el c\u00f3digo, tambi\u00e9n tienes que auditar qu\u00e9 empresa lo ha hecho, bajo qu\u00e9 <i>software<\/i>, cu\u00e1nta agua se ha gastado, cu\u00e1nto carbono se ha emitido, si ha tenido alg\u00fan impacto en las comunidades locales&#8230; Es lo que estoy estudiando ahora, desde el origen: qu\u00e9 minerales se necesitan para crear las GPUs, que son los microchips con los que se entrenan algoritmos como ChatGPT porque tienen la capacidad de procesar algoritmos sofisticados de manera m\u00e1s r\u00e1pida. Qui\u00e9n est\u00e1 fabricando GPUs a nivel mundial, que es Nvidia, con un 80% del mercado de GPUs. Casi toda la infraestructura de la inteligencia artificial recae en esta empresa. Luego, cuando esos microchips se env\u00edan a centros de datos, cu\u00e1nta energ\u00eda gastan, cu\u00e1nta agua. Por \u00faltimo, el final del ciclo. Cada cinco a\u00f1os los centros de datos tienen que renovar su infraestructura, eso significa que cada cinco a\u00f1os las GPUs de un centro de datos se desechan; pues bueno, d\u00f3nde se desechan, c\u00f3mo se reciclan\u2026 Y qu\u00e9 impacto medioambiental y social est\u00e1 teniendo cada una de esas fases.<\/p>\n<p>Estudio eso y tambi\u00e9n otra parte de la industria de la inteligencia artificial, que es qui\u00e9n est\u00e1 etiquetando los datos, qui\u00e9n est\u00e1 entrenando los algoritmos, etc. Siempre hace falta mucho trabajo humano.<\/p>\n<p><strong>\u00bfHasta qu\u00e9 punto el consumo de recursos de la IA es superior al que ya ten\u00eda la industria de las tecnolog\u00edas de la informaci\u00f3n y comunicaci\u00f3n? Porque los megacentros de datos ya exist\u00edan\u2026 <\/strong><\/p>\n<p>Las GPUs, que son los chips que se utilizan para jugar a videojuegos y para la inteligencia artificial, consumen mucha m\u00e1s agua y mucha m\u00e1s electricidad porque son m\u00e1s sofisticados.<\/p>\n<p>El primer m\u00f3vil que tuvimos gastaba mucha menos electricidad que el m\u00f3vil que tenemos ahora, porque ahora tenemos nuestra vida digital, claro. Se da la paradoja de Jevons. La tecnolog\u00eda cada vez es m\u00e1s eficiente pero cada vez hay m\u00e1s, cada vez necesitamos m\u00e1s centros de datos, tenemos cada vez m\u00e1s aparatos digitales, entonces s\u00ed, todo es m\u00e1s eficiente pero, al fin y al cabo, estamos consumiendo mucho m\u00e1s.<\/p>\n<p><strong>El hecho de que el control de la tecnolog\u00eda est\u00e9 quedando en manos privadas, \u00bfqu\u00e9 consecuencias puede tener en su desarrollo? <\/strong><\/p>\n<p>En el campo de la inteligencia artificial siempre ha habido colaboraciones p\u00fablico-privadas de empresas tecnol\u00f3gicas con universidades. Por ejemplo, el primer <i>chatbot<\/i> que se codific\u00f3 fue obra de IBM y la Universidad de Georgetown en Estados Unidos.<\/p>\n<p>Pero \u00faltimamente est\u00e1 recayendo solo en manos privadas porque son los que tienen los datos y la capacidad computacional, lo vemos por ejemplo con Twitter. Twitter era una fuente muy rica de datos para las investigadoras acad\u00e9micas como yo, porque pod\u00edas analizar ciertos comportamientos sociales en redes, pero esa informaci\u00f3n ya no est\u00e1 disponible.<\/p>\n<p>Cuando Elon Musk decidi\u00f3 dejar de facilitarla, todos mis estudiantes entraron en p\u00e1nico. Ahora tienes que pagar si quieres tener acceso a estos datos. Se han privatizado todas las fuentes de informaci\u00f3n, pertenecen a Microsoft, Amazon, o Google. Como ellos tienen la materia prima de los datos, ya nos queda muy poco que hacer a las universidades.<\/p>\n<p>Luego est\u00e1 el tema de la capacidad de c\u00f3mputo. En mi departamento, en Oxford, ahora empezamos a tener GPUs, pero son muy costosas.<\/p>\n<p>Las universidades jugamos en un segundo nivel en cuanto a desarrollo tecnol\u00f3gico. Ahora estamos auditando lo que est\u00e1n haciendo las empresas privadas. Poniendo el ojo cr\u00edtico o desarrollando cosas a partir de lo que ellos han desarrollado. \u00bfCu\u00e1ntos <i>papers<\/i> cient\u00edficos est\u00e1n ahora analizando el ChatGPT, sus sesgos y sus aplicaciones? Esta va a ser la tendencia en los pr\u00f3ximos a\u00f1os.<\/p>\n<p><strong>Sobre el tema de los sesgos, he estado leyendo el informe <a class=\"spip_out\" href=\"https:\/\/www.algorace.org\/2023\/10\/27\/informe-i-una-introduccion-a-la-ia-y-la-discriminacion-algoritmica-para-movimientos-sociales\/\" target=\"_blank\" rel=\"external noopener noreferrer\">Una introducci\u00f3n a la IA y la discriminaci\u00f3n algor\u00edtmica para movimientos sociales<\/a>, de AlgoRace, del que es una de las investigadoras principales. Muchas veces en redes, cuando alguien habla de los sesgos de la inteligencia artificial, aparece otro que responde que las personas, los funcionarios, tambi\u00e9n tienen sesgos. La conclusi\u00f3n a la que se llega en el informe, si no he entendido mal, es que la inteligencia artificial va a ser racista mientras el sistema en su conjunto sea racista, pero no s\u00e9 si se puede mitigar esto de alguna manera.<\/strong><\/p>\n<p>Ve\u00edamos que en Espa\u00f1a todo el mundo dec\u00eda que la inteligencia artificial es racista, y para m\u00ed esa narrativa es una manera de escurrir el bulto de las grandes tecnol\u00f3gicas y de las personas que est\u00e1n dise\u00f1ando esa inteligencia artificial racista, porque la inteligencia artificial en s\u00ed es una herramienta. Es como un martillo. Lo puedes utilizar para clavar un cuadro en la pared y poner tu casa m\u00e1s bonita o para hacer da\u00f1o a una persona. La inteligencia artificial la puedes utilizar para seguir reproduciendo violencias estructurales, por ejemplo, con un algoritmo que haga m\u00e1s dif\u00edcil pedir ayudas p\u00fablicas a comunidades hist\u00f3ricamente marginalizadas, o puedes crear un algoritmo que te analice movimientos financieros dentro de los partidos pol\u00edticos e identifique qui\u00e9n est\u00e1 haciendo movimientos corruptos.<\/p>\n<p>En Espa\u00f1a a\u00fan no tenemos un algoritmo que detecte ese tipo de corrupci\u00f3n, pero tenemos el algoritmo Bosco que dice si tienes derecho al bono social para la factura de la luz o no. La fundaci\u00f3n Civio ha querido auditarlo, pero <a class=\"spip_out\" href=\"https:\/\/civio.es\/novedades\/2022\/02\/10\/la-justicia-impide-la-apertura-del-codigo-fuente-de-la-aplicacion-que-concede-el-bono-social\/\" target=\"_blank\" rel=\"external noopener noreferrer\">no nos han permitido acceder al c\u00f3digo<\/a>.<\/p>\n<p><strong>Me ha sorprendido saber que se est\u00e1n utilizando ya muchos algoritmos de este tipo en Espa\u00f1a, no lo sab\u00eda.<\/strong><\/p>\n<p>S\u00ed, s\u00ed, se utilizan mucho. Est\u00e1 el Bosco; est\u00e1 Viogen, que es el de la violencia de g\u00e9nero; hay otro de violencia de g\u00e9nero en el Pa\u00eds Vasco, yo misma lo estuve auditando con un juez y con una experta en temas legales y de tecnolog\u00eda. Una cosa que me resulta interesante es que la mayor\u00eda de veces la justificaci\u00f3n para implementar un algoritmo en la vida p\u00fablica es la falta de recursos. Por ejemplo, en el caso del algoritmo de violencia de g\u00e9nero en el Pa\u00eds Vasco, la justificaci\u00f3n fue que la Ertzaintza no ten\u00eda suficientes expertos en violencia de g\u00e9nero.<\/p>\n<p>Entonces dijeron, bueno, como tenemos falta de recursos humanos, lo que vamos a hacer es poner un algoritmo que prediga el riesgo de violencia de g\u00e9nero que tiene cualquier persona que venga a nuestra comisar\u00eda a reportar que est\u00e1 sufriendo esta violencia.<\/p>\n<p>Una de las cosas que decimos Javi [Javier S\u00e1nchez Monedero, el otro investigador principal del informe] y yo es: no, primero mejora la infraestructura, pon los recursos necesarios en ese sitio. Una vez la Ertzaintza tenga los recursos para evaluar de una manera humana esos casos de violencia, entonces s\u00ed, pon el algoritmo como una herramienta extra, pero un algoritmo que est\u00e9 bien dise\u00f1ado, porque este algoritmo est\u00e1 muy mal dise\u00f1ado, funciona muy, muy mal. Y est\u00e1 hoy en d\u00eda asesorando casos de violencia de g\u00e9nero en el Pa\u00eds Vasco.<\/p>\n<p>La inteligencia artificial no es una soluci\u00f3n a ning\u00fan problema estructural. Se tendr\u00eda que poner como una herramienta de ayuda ante un sistema p\u00fablico bien financiado y con trabajadores en buenas condiciones.<\/p>\n<p><strong>Tambi\u00e9n puede ser una forma de escurrir el bulto, supongo, porque lo que haga la m\u00e1quina no es culpa de nadie\u2026 <\/strong><\/p>\n<p>A mis alumnos en la Universidad de Oxford siempre les desmitifico la idea del <i>black box<\/i>, de la caja negra, siempre les digo que los algoritmos no son una caja negra, que muchas veces las cajas negras son las instituciones, porque cuando yo, como inform\u00e1tica y matem\u00e1tica, tengo acceso al c\u00f3digo de un algoritmo, puedo preguntarle al algoritmo c\u00f3mo est\u00e1 tomando las decisiones, lo puedo auditar. El problema es que muchas veces las administraciones o las instituciones no te dan permiso.<\/p>\n<p>Pero es posible interrogar a los algoritmos igual que a las personas, incluso el algoritmo es un poquito m\u00e1s transparente porque no te puede mentir. T\u00fa lo est\u00e1s viendo, son f\u00f3rmulas matem\u00e1ticas, en cambio una persona s\u00ed que te puede mentir sobre c\u00f3mo ha tomado una decisi\u00f3n.<\/p>\n<p>As\u00ed que los procesos algor\u00edtmicos siempre son m\u00e1s transparentes que los humanos. Incluso esa transparencia permite detectar cu\u00e1ndo una instituci\u00f3n tiene sesgos racistas.<\/p>\n<p>Esto lo hemos visto en el Reino Unido, cuando el Ministerio de Interior decidi\u00f3 implantar un algoritmo para analizar las solicitudes de visados para entrar al pa\u00eds. Lo tuvieron que cancelar porque casi todas las personas de \u00c1frica recib\u00edan una puntuaci\u00f3n muy alta, que indicaba que su caso deb\u00eda examinarse en profundidad, lo que alargaba el proceso.<\/p>\n<p>Entonces decidieron cancelarlo porque efectivamente la ley en el Reino Unido exige un trato igualitario sin tener en cuenta tu nacionalidad, tu g\u00e9nero, tu orientaci\u00f3n sexual, etc. Y se estaba vulnerando esa ley porque el algoritmo valoraba en funci\u00f3n de la nacionalidad.<\/p>\n<p>Vale, se cancel\u00f3 y todo bien, pero yo digo que tendr\u00edamos que ir m\u00e1s all\u00e1, porque el algoritmo estaba mostrando que hist\u00f3ricamente las solicitudes que ven\u00edan de \u00c1frica recib\u00edan un mayor escrutinio, que los humanos las estaban tramitando as\u00ed. Los algoritmos pueden revelar patrones racistas o sexistas de nuestras instituciones. Si el algoritmo es racista es porque se ha entrenado con datos racistas, porque los humanos que han producido esos datos ten\u00edan comportamientos racistas.<\/p>\n<p><strong>Me ha llamado la atenci\u00f3n el ejemplo que ha puesto antes de un algoritmo para investigar la corrupci\u00f3n. \u00bfCree que los sectores progresistas deber\u00edan utilizar m\u00e1s estas herramientas o explorar un poco ese tema?<\/strong><\/p>\n<p>Pues s\u00ed, estar\u00eda muy bien que se crearan ese tipo de escrutinios algor\u00edtmicos. Ser\u00eda importante ver qui\u00e9n los dise\u00f1a, claro, pero un algoritmo te puede mostrar much\u00edsimas cosas porque b\u00e1sicamente analiza patrones en los datos. As\u00ed que estar\u00eda muy bien que grupos progresistas de nuestro pa\u00eds abogaran por el uso de algoritmos. Vemos c\u00f3mo estas tecnolog\u00edas sirven a los poderosos, en vez de utilizarse como una herramienta del pueblo.<\/p>\n<p><strong>Por \u00faltimo, \u00bfc\u00f3mo valora la reciente Ley de Inteligencia Artificial de la Uni\u00f3n Europea?<\/strong><\/p>\n<p>Tiene cosas buenas y malas. Es bueno que se regule esta tecnolog\u00eda. No s\u00e9 hasta qu\u00e9 punto ten\u00edamos ya regulaciones que pod\u00edan servir. Por ejemplo, la Ley de Protecci\u00f3n de Datos. No s\u00e9 si era necesaria una regulaci\u00f3n espec\u00edfica o habr\u00eda que fortalecer m\u00e1s las que ya ten\u00edamos, pero bueno, aun as\u00ed est\u00e1 bien que se regule.<\/p>\n<p>Por otro lado, vemos muchos vac\u00edos. Por ejemplo, el art\u00edculo 83 de ese reglamento dice que todas las bases de datos destinadas a contexto migratorio de la Uni\u00f3n Europea est\u00e1n exentas de la regulaci\u00f3n. O sea, que hecha la ley, hecha la trampa tambi\u00e9n. La Uni\u00f3n Europea se lava las manos y dice que se considerar\u00e1 de riesgo alto toda inteligencia artificial implementada en el contexto migratorio, pero que las suyas propias est\u00e1n exentas. Hay tambi\u00e9n otros temas como el del reconocimiento facial en vivo, que parec\u00eda que se iba a prohibir totalmente, pero al final la polic\u00eda va a poder utilizarlo. En temas de seguridad tambi\u00e9n la legislaci\u00f3n es muy laxa. Entonces, bueno, est\u00e1 bien, pero est\u00e1 mal. Y tambi\u00e9n, recordando lo que hemos hablado del impacto medioambiental, este reglamento dice que la inteligencia artificial se utilizar\u00e1 de una manera sostenible, pero no dice c\u00f3mo de sostenible ni qu\u00e9 significa sostenible ni qu\u00e9 directrices existen.<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Ana Valdivia (Barcelona, 1990) es profesora e investigadora en Inteligencia Artificial, Gobierno y Pol\u00edticas en el Oxford Internet Institute de la Universidad de Oxford. Matem\u00e1tica e inform\u00e1tica, ha estudiado la influencia en las sociedades de la recopilaci\u00f3n masiva de datos o el uso de algoritmos en las fronteras. Actualmente su trabajo se centra en los [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":4189,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","enabled":false},"version":2}},"categories":[2],"tags":[],"class_list":["post-4188","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"jetpack_publicize_connections":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v23.4 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Ana Valdivia, investigadora en inteligencia artificial de la Universidad De Oxford: \u201cSi el algoritmo es racista es porque se ha entrenado con datos racistas\u201d - UninomadaSUR<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/uninomadasur.net\/?p=4188\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Ana Valdivia, investigadora en inteligencia artificial de la Universidad De Oxford: \u201cSi el algoritmo es racista es porque se ha entrenado con datos racistas\u201d - UninomadaSUR\" \/>\n<meta property=\"og:description\" content=\"Ana Valdivia (Barcelona, 1990) es profesora e investigadora en Inteligencia Artificial, Gobierno y Pol\u00edticas en el Oxford Internet Institute de la Universidad de Oxford. Matem\u00e1tica e inform\u00e1tica, ha estudiado la influencia en las sociedades de la recopilaci\u00f3n masiva de datos o el uso de algoritmos en las fronteras. Actualmente su trabajo se centra en los [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/uninomadasur.net\/?p=4188\" \/>\n<meta property=\"og:site_name\" content=\"UninomadaSUR\" \/>\n<meta property=\"article:published_time\" content=\"2024-06-05T14:43:10+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2024\/06\/623474fd960d7.jpeg\" \/>\n\t<meta property=\"og:image:width\" content=\"990\" \/>\n\t<meta property=\"og:image:height\" content=\"660\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Administrador\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Administrador\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"14 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/uninomadasur.net\/?p=4188#article\",\"isPartOf\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=4188\"},\"author\":{\"name\":\"Administrador\",\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/person\/bf51815d932788910947ff9541a9b85c\"},\"headline\":\"Ana Valdivia, investigadora en inteligencia artificial de la Universidad De Oxford: \u201cSi el algoritmo es racista es porque se ha entrenado con datos racistas\u201d\",\"datePublished\":\"2024-06-05T14:43:10+00:00\",\"dateModified\":\"2024-06-05T14:43:10+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=4188\"},\"wordCount\":2725,\"commentCount\":0,\"publisher\":{\"@id\":\"https:\/\/uninomadasur.net\/#organization\"},\"image\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=4188#primaryimage\"},\"thumbnailUrl\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2024\/06\/623474fd960d7.jpeg\",\"articleSection\":[\"Blog\"],\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"CommentAction\",\"name\":\"Comment\",\"target\":[\"https:\/\/uninomadasur.net\/?p=4188#respond\"]}]},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/uninomadasur.net\/?p=4188\",\"url\":\"https:\/\/uninomadasur.net\/?p=4188\",\"name\":\"Ana Valdivia, investigadora en inteligencia artificial de la Universidad De Oxford: \u201cSi el algoritmo es racista es porque se ha entrenado con datos racistas\u201d - UninomadaSUR\",\"isPartOf\":{\"@id\":\"https:\/\/uninomadasur.net\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=4188#primaryimage\"},\"image\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=4188#primaryimage\"},\"thumbnailUrl\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2024\/06\/623474fd960d7.jpeg\",\"datePublished\":\"2024-06-05T14:43:10+00:00\",\"dateModified\":\"2024-06-05T14:43:10+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=4188#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/uninomadasur.net\/?p=4188\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/uninomadasur.net\/?p=4188#primaryimage\",\"url\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2024\/06\/623474fd960d7.jpeg\",\"contentUrl\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2024\/06\/623474fd960d7.jpeg\",\"width\":990,\"height\":660},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/uninomadasur.net\/?p=4188#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Inicio\",\"item\":\"https:\/\/uninomadasur.net\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Ana Valdivia, investigadora en inteligencia artificial de la Universidad De Oxford: \u201cSi el algoritmo es racista es porque se ha entrenado con datos racistas\u201d\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/uninomadasur.net\/#website\",\"url\":\"https:\/\/uninomadasur.net\/\",\"name\":\"UninomadaSUR\",\"description\":\"UninomadaSUR\",\"publisher\":{\"@id\":\"https:\/\/uninomadasur.net\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/uninomadasur.net\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/uninomadasur.net\/#organization\",\"name\":\"UninomadaSUR\",\"url\":\"https:\/\/uninomadasur.net\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2018\/09\/uni-logo.png\",\"contentUrl\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2018\/09\/uni-logo.png\",\"width\":260,\"height\":94,\"caption\":\"UninomadaSUR\"},\"image\":{\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/logo\/image\/\"}},{\"@type\":\"Person\",\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/person\/bf51815d932788910947ff9541a9b85c\",\"name\":\"Administrador\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/b36419d5b57d43ccfb2c84733927cffe?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/b36419d5b57d43ccfb2c84733927cffe?s=96&d=mm&r=g\",\"caption\":\"Administrador\"},\"url\":\"https:\/\/uninomadasur.net\/?author=2\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Ana Valdivia, investigadora en inteligencia artificial de la Universidad De Oxford: \u201cSi el algoritmo es racista es porque se ha entrenado con datos racistas\u201d - UninomadaSUR","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/uninomadasur.net\/?p=4188","og_locale":"es_ES","og_type":"article","og_title":"Ana Valdivia, investigadora en inteligencia artificial de la Universidad De Oxford: \u201cSi el algoritmo es racista es porque se ha entrenado con datos racistas\u201d - UninomadaSUR","og_description":"Ana Valdivia (Barcelona, 1990) es profesora e investigadora en Inteligencia Artificial, Gobierno y Pol\u00edticas en el Oxford Internet Institute de la Universidad de Oxford. Matem\u00e1tica e inform\u00e1tica, ha estudiado la influencia en las sociedades de la recopilaci\u00f3n masiva de datos o el uso de algoritmos en las fronteras. Actualmente su trabajo se centra en los [&hellip;]","og_url":"https:\/\/uninomadasur.net\/?p=4188","og_site_name":"UninomadaSUR","article_published_time":"2024-06-05T14:43:10+00:00","og_image":[{"width":990,"height":660,"url":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2024\/06\/623474fd960d7.jpeg","type":"image\/jpeg"}],"author":"Administrador","twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"Administrador","Tiempo de lectura":"14 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/uninomadasur.net\/?p=4188#article","isPartOf":{"@id":"https:\/\/uninomadasur.net\/?p=4188"},"author":{"name":"Administrador","@id":"https:\/\/uninomadasur.net\/#\/schema\/person\/bf51815d932788910947ff9541a9b85c"},"headline":"Ana Valdivia, investigadora en inteligencia artificial de la Universidad De Oxford: \u201cSi el algoritmo es racista es porque se ha entrenado con datos racistas\u201d","datePublished":"2024-06-05T14:43:10+00:00","dateModified":"2024-06-05T14:43:10+00:00","mainEntityOfPage":{"@id":"https:\/\/uninomadasur.net\/?p=4188"},"wordCount":2725,"commentCount":0,"publisher":{"@id":"https:\/\/uninomadasur.net\/#organization"},"image":{"@id":"https:\/\/uninomadasur.net\/?p=4188#primaryimage"},"thumbnailUrl":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2024\/06\/623474fd960d7.jpeg","articleSection":["Blog"],"inLanguage":"es","potentialAction":[{"@type":"CommentAction","name":"Comment","target":["https:\/\/uninomadasur.net\/?p=4188#respond"]}]},{"@type":"WebPage","@id":"https:\/\/uninomadasur.net\/?p=4188","url":"https:\/\/uninomadasur.net\/?p=4188","name":"Ana Valdivia, investigadora en inteligencia artificial de la Universidad De Oxford: \u201cSi el algoritmo es racista es porque se ha entrenado con datos racistas\u201d - UninomadaSUR","isPartOf":{"@id":"https:\/\/uninomadasur.net\/#website"},"primaryImageOfPage":{"@id":"https:\/\/uninomadasur.net\/?p=4188#primaryimage"},"image":{"@id":"https:\/\/uninomadasur.net\/?p=4188#primaryimage"},"thumbnailUrl":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2024\/06\/623474fd960d7.jpeg","datePublished":"2024-06-05T14:43:10+00:00","dateModified":"2024-06-05T14:43:10+00:00","breadcrumb":{"@id":"https:\/\/uninomadasur.net\/?p=4188#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/uninomadasur.net\/?p=4188"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/uninomadasur.net\/?p=4188#primaryimage","url":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2024\/06\/623474fd960d7.jpeg","contentUrl":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2024\/06\/623474fd960d7.jpeg","width":990,"height":660},{"@type":"BreadcrumbList","@id":"https:\/\/uninomadasur.net\/?p=4188#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Inicio","item":"https:\/\/uninomadasur.net\/"},{"@type":"ListItem","position":2,"name":"Ana Valdivia, investigadora en inteligencia artificial de la Universidad De Oxford: \u201cSi el algoritmo es racista es porque se ha entrenado con datos racistas\u201d"}]},{"@type":"WebSite","@id":"https:\/\/uninomadasur.net\/#website","url":"https:\/\/uninomadasur.net\/","name":"UninomadaSUR","description":"UninomadaSUR","publisher":{"@id":"https:\/\/uninomadasur.net\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/uninomadasur.net\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Organization","@id":"https:\/\/uninomadasur.net\/#organization","name":"UninomadaSUR","url":"https:\/\/uninomadasur.net\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/uninomadasur.net\/#\/schema\/logo\/image\/","url":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2018\/09\/uni-logo.png","contentUrl":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2018\/09\/uni-logo.png","width":260,"height":94,"caption":"UninomadaSUR"},"image":{"@id":"https:\/\/uninomadasur.net\/#\/schema\/logo\/image\/"}},{"@type":"Person","@id":"https:\/\/uninomadasur.net\/#\/schema\/person\/bf51815d932788910947ff9541a9b85c","name":"Administrador","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/uninomadasur.net\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/b36419d5b57d43ccfb2c84733927cffe?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/b36419d5b57d43ccfb2c84733927cffe?s=96&d=mm&r=g","caption":"Administrador"},"url":"https:\/\/uninomadasur.net\/?author=2"}]}},"jetpack_featured_media_url":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2024\/06\/623474fd960d7.jpeg","jetpack_sharing_enabled":true,"jetpack_shortlink":"https:\/\/wp.me\/paDeUS-15y","_links":{"self":[{"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/posts\/4188"}],"collection":[{"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=4188"}],"version-history":[{"count":1,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/posts\/4188\/revisions"}],"predecessor-version":[{"id":4190,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/posts\/4188\/revisions\/4190"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/media\/4189"}],"wp:attachment":[{"href":"https:\/\/uninomadasur.net\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=4188"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=4188"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=4188"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}