{"id":3273,"date":"2021-09-07T15:22:30","date_gmt":"2021-09-07T15:22:30","guid":{"rendered":"http:\/\/uninomadasur.net\/?p=3273"},"modified":"2021-09-07T15:22:36","modified_gmt":"2021-09-07T15:22:36","slug":"inteligencia-artificial-y-sesgos-algoritmicos","status":"publish","type":"post","link":"https:\/\/uninomadasur.net\/?p=3273","title":{"rendered":"Inteligencia artificial y sesgos algor\u00edtmicos"},"content":{"rendered":"<p>\u00bfPor qu\u00e9 deber\u00edan importarnos?<\/p>\n<p><strong>Por Enzo Ferrante<\/strong><\/p>\n<p>Cada vez m\u00e1s, la inteligencia artificial es parte de nuestras vidas, a menudo de manera imperceptible. Ya no se trata de utop\u00edas tecnol\u00f3gicas sobre el futuro, sino de un presente muy concreto. Pero detr\u00e1s de avances que incluyen desde diagn\u00f3sticos m\u00e9dicos hasta vigilancia masiva est\u00e1n los algoritmos, cuyos \u00absesgos\u00bb amenazan con perpetuar e incluso profundizar las desigualdades del presente. Poner el foco en los datos, los modelos y las personas puede servir para construir una inteligencia artificial m\u00e1s \u00abjusta\u00bb.<\/p>\n<p>Inteligencia artificial y sesgos algor\u00edtmicos \u00bfPor qu\u00e9 deber\u00edan importarnos?<br \/>\nUna c\u00e1mara enfoca las escalinatas de entrada del Instituto de Tecnolog\u00eda de Massachusetts (mit). La investigadora Joy Buolamwini sube algunos escalones y se escucha su voz en off:<\/p>\n<p>Una de las cosas que me atrajeron de las ciencias de la computaci\u00f3n fue que pod\u00eda programar y alejarme de los problemas del mundo real. Quer\u00eda aprender a hacer tecnolog\u00eda que fuera interesante. As\u00ed que vine al mit y trabaj\u00e9 en proyectos de arte que usaban visi\u00f3n artificial1. Durante mi primer semestre en el Media Lab hice un curso sobre \u00abinvenci\u00f3n cient\u00edfica\u00bb. Lees ciencia ficci\u00f3n y eso te inspira a crear algo que seguramente ser\u00eda poco pr\u00e1ctico si no tuvieras el curso como excusa para hacerlo. Yo quise construir un espejo que me inspirara por las ma\u00f1anas. Lo llam\u00e9 Espejo Aspire. El espejo me colocaba leones sobre el rostro, o gente que me inspirara, como Serena Williams. Le coloqu\u00e9 una c\u00e1mara y con un software de visi\u00f3n artificial, se supon\u00eda que deb\u00eda detectar los movimientos de mi cara. Pero el problema era que no funcionaba bien, hasta que me puse una m\u00e1scara blanca. Cuando me pon\u00eda la m\u00e1scara, me detectaba. Cuando me la quitaba, ya no me detectaba.<\/p>\n<p>As\u00ed comienza Prejuicio cifrado (Coded Bias), el documental dirigido por la cineasta Shalini Kantayya y estrenado en 2020 que narra c\u00f3mo Buolamwini tom\u00f3 conciencia del sesgo racial existente en los algoritmos de reconocimiento facial y analiza sus consecuencias. Buolamwini es una mujer negra, especialista en inform\u00e1tica, activista y fundadora de la Liga por la Justicia Algor\u00edtimica (Algorithmic Justice League), y hace algunos a\u00f1os descubri\u00f3 que varios sistemas comerciales de reconocimiento facial dise\u00f1ados por Amazon, ibm y Microsoft funcionaban mejor con el rostro de sus amigos blancos que con el suyo2. M\u00e1s all\u00e1 de los dilemas \u00e9ticos sobre el desarrollo de sistemas de reconocimiento facial3, el caso de Buolamwini muestra claramente c\u00f3mo un sistema basado en inteligencia artificial puede adquirir un sesgo y cumplir mejor la tarea para la que fue dise\u00f1ado en un grupo de individuos que en otro.<\/p>\n<p>Esta no es una cuesti\u00f3n menor. La expresi\u00f3n \u00abinteligencia artificial\u00bb dej\u00f3 de ser propiedad exclusiva de las novelas de ciencia ficci\u00f3n y de los libros de computaci\u00f3n. Noticias sobre avances fascinantes \u2013como computadoras capaces de asistir al personal m\u00e9dico en tareas de diagn\u00f3stico o de manejar autom\u00e1ticamente veh\u00edculos no tripulados\u2013 aparecen cada vez con m\u00e1s frecuencia y se vinculan cada vez m\u00e1s con nuestras vidas. Sin embargo, no todas las noticias son tan alentadoras. Lo que experiment\u00f3 Buolamwini no es un caso aislado: durante los \u00faltimos a\u00f1os, hemos visto desde sistemas para reconocimiento facial que alcanzan un peor rendimiento4 en mujeres de piel negra que en hombres blancos, hasta traductores del ingl\u00e9s al espa\u00f1ol que perpet\u00faan estereotipos de g\u00e9nero. Estos ejemplos ilustran un fen\u00f3meno conocido como \u00absesgo algor\u00edtmico\u00bb: sistemas cuyas predicciones benefician sistem\u00e1ticamente a un grupo de individuos frente a otro, resultando as\u00ed injustas o desiguales. Pero \u00bfcu\u00e1les son las razones que llevan a estos sistemas a generar predicciones sesgadas? Para entenderlo, comencemos por definir algunos conceptos que nos ser\u00e1n \u00fatiles a lo largo de este ensayo: \u00abinteligencia artificial\u00bb y \u00abaprendizaje autom\u00e1tico\u00bb.<\/p>\n<p>Cuando la inteligencia deviene artificial y el aprendizaje, autom\u00e1tico<\/p>\n<p>Existen muchas definiciones de \u00abinteligencia artificial\u00bb. Aqu\u00ed usaremos una definici\u00f3n general ofrecida en uno de los libros fundamentales del campo, que describe la inteligencia artificial como la disciplina que se encarga de comprender y construir entidades inteligentes (pero artificiales)5. Esta definici\u00f3n es muy amplia y abarca conceptos que van desde los sistemas de razonamiento deductivo basados en reglas l\u00f3gicas hasta algoritmos de aprendizaje autom\u00e1tico que buscan detectar autom\u00e1ticamente patrones en conjuntos de datos y luego usarlos para realizar predicciones6. Un elemento central para este \u00faltimo subcampo de la inteligencia artificial son entonces los datos, que constituyen la materia prima utilizada para automatizar el proceso de aprendizaje en el que los sistemas son entrenados para realizar predicciones.<\/p>\n<p>Los datos pueden ser im\u00e1genes, sonidos, texto escrito, redes, posiciones de un gps, tablas o cualquier representaci\u00f3n que se nos ocurra. En todo caso, la idea central es que los modelos de aprendizaje autom\u00e1tico aprenden a partir de los datos. Esta noci\u00f3n resulta central en la actualidad, dado que la gran mayor\u00eda de las tecnolog\u00edas disruptivas adoptadas masivamente en el siglo xxi y que son presentadas como inteligencia artificial utilizan en realidad m\u00e9todos de aprendizaje autom\u00e1tico. Pero \u00bfc\u00f3mo aprenden estos sistemas?<\/p>\n<p>Existen distintos paradigmas de aprendizaje. Uno de los m\u00e1s utilizados es el del aprendizaje supervisado, en el que los sistemas son sometidos a un proceso de entrenamiento que es guiado por anotaciones o etiquetas. La idea es simple: se intenta asociar caracter\u00edsticas o patrones propios de los datos con las correspondientes etiquetas. Es decir, se analizan los datos en busca de patrones distintivos que permitan separar una categor\u00eda de la otra. Tomemos un ejemplo: imaginemos que queremos entrenar un sistema para que pueda decirnos si el contenido de una imagen corresponde a un perro o a un gato. Bajo el paradigma del aprendizaje supervisado, lo que necesitaremos es una base de datos compuesta por im\u00e1genes de perros y gatos, con la correspondiente etiqueta asociada a cada una. Durante el proceso de entrenamiento, el algoritmo tomar\u00e1 esas im\u00e1genes y comenzar\u00e1 a hacer predicciones a partir de ellas, asociando caracter\u00edsticas (informaci\u00f3n de la imagen) con etiquetas. De forma simplificada, podemos pensar que estas caracter\u00edsticas est\u00e1n dadas por diferentes patrones presentes en la imagen, como el color, el brillo, la cantidad de patas, el tama\u00f1o del cuerpo o la forma de las orejas. Si nos detenemos a pensar en estas caracter\u00edsticas, algunas ser\u00e1n m\u00e1s \u00fatiles que otras para distinguir entre perros y gatos. Por ejemplo, la cantidad de patas no parece ser una caracter\u00edstica \u00fatil para diferenciarlos; sin embargo, el tama\u00f1o del cuerpo s\u00ed podr\u00eda serlo. La idea es que, por medio del entrenamiento, los sistemas aprendan a asociar patrones en estas caracter\u00edsticas con las correspondientes categor\u00edas. Al principio estas asociaciones ser\u00e1n seguramente incorrectas; pero a medida que avance el proceso de entrenamiento, el modelo se ir\u00e1 ajustando y mejorando su desempe\u00f1o en la tarea asignada.<\/p>\n<p>Esta idea que ilustramos con im\u00e1genes es extrapolable a otros tipos de datos sobre los que habl\u00e1bamos: si quisi\u00e9ramos entrenar un sistema para aprender a traducir texto de ingl\u00e9s a espa\u00f1ol, necesitar\u00edamos muchos textos escritos en ambos idiomas. Para inferir el estado de \u00e1nimo de una persona a partir de su voz, necesitar\u00edamos grabaciones de audio de personas hablando, y la correspondiente etiqueta que indique si se encuentran alegres o tristes. Si pens\u00e1ramos en un sistema que detecte patolog\u00edas autom\u00e1ticamente a partir de im\u00e1genes radiogr\u00e1ficas, necesitar\u00edamos pares de im\u00e1genes con su correspondiente diagn\u00f3stico m\u00e9dico. O si quisi\u00e9ramos entrenar un modelo para detectar rostros en im\u00e1genes, necesitar\u00edamos una base de datos de fotograf\u00edas de personas, con etiquetas que indiquen en qu\u00e9 lugar se encuentra el rostro de cada una.<\/p>\n<p>Como vemos, los datos juegan un rol esencial en el entrenamiento de sistemas por medio de aprendizaje autom\u00e1tico, dado que son la fuente de informaci\u00f3n que le indicar\u00e1 al sistema cu\u00e1ndo ha llegado a conclusiones correctas y cu\u00e1ndo no. Algo que resulta fundamental en este proceso, y que no siempre es tenido en cuenta, es que un sistema raramente se construye para realizar predicciones con los datos con que fue entrenado. Por el contrario, se espera que los modelos puedan sacar conclusiones acertadas sobre datos nunca vistos durante el \u00abaprendizaje\u00bb \u2013los datos de prueba\u2013 y cuyas etiquetas no se conocen. Esta capacidad de generalizaci\u00f3n es un rasgo primordial, dado que de nada servir\u00eda un modelo predictivo que solo acertara en situaciones conocidas. Imaginemos un detector de patolog\u00edas en im\u00e1genes radiogr\u00e1ficas que puede predecir si una persona tiene o no neumon\u00eda utilizando solamente im\u00e1genes de esa misma persona. O un traductor de ingl\u00e9s a espa\u00f1ol que solo puede traducir textos que ya estaban traducidos. En general, la hip\u00f3tesis de trabajo de estos sistemas es que los datos de prueba ser\u00e1n de alguna manera similares a los datos de entrenamiento, pero no los mismos. Por ejemplo, si entrenamos un modelo para detectar neumon\u00eda en humanos, el modelo ser\u00e1 utilizado en otros humanos, pero no en animales. O si entrenamos un sistema para traducir del espa\u00f1ol al ingl\u00e9s, los textos de prueba ser\u00e1n distintos de los de entrenamiento, pero estar\u00e1n siempre escritos en espa\u00f1ol, y no en franc\u00e9s. En este caso, resulta evidente que un sistema que aprendi\u00f3 utilizando textos en espa\u00f1ol no podr\u00e1 generalizar al franc\u00e9s. \u00bfO acaso le pedir\u00edamos a un int\u00e9rprete de franc\u00e9s que traduzca mandar\u00edn? Sin embargo, existen variaciones entre los datos de entrenamiento y prueba que pueden ser m\u00e1s sutiles que el cambio de espa\u00f1ol a franc\u00e9s o de humanos a animales, pero que igualmente producen un efecto devastador en la calidad de las predicciones.<\/p>\n<p>Volvamos a imaginar el caso del sistema para distinguir entre im\u00e1genes de perros y gatos, pero con una peque\u00f1a variaci\u00f3n: nuestra base de datos solo est\u00e1 compuesta por perros negros y gatos blancos. En este caso, el color del animal ser\u00e1 una caracter\u00edstica sumamente \u00fatil para distinguir entre ambas clases. De hecho, nos dar\u00e1 una predicci\u00f3n perfecta: si el color predominante en el cuerpo del animal es negro, ser\u00e1 un perro; y si es blanco, ser\u00e1 un gato. Ahora imaginemos que en nuestro conjunto de prueba hay una sutil diferencia: aparecen perros de color blanco. \u00bfQu\u00e9 creen que suceder\u00e1 con las predicciones sobre los perros blancos? El sistema seguramente les asignar\u00e1 la etiqueta \u00abgato\u00bb de forma incorrecta, resultando en un rendimiento m\u00e1s bajo para este subconjunto de la poblaci\u00f3n objetivo. Tomar en cuenta estos factores al entrenar sistemas de inteligencia artificial basados en aprendizaje autom\u00e1tico es clave si queremos evitar el sesgo algor\u00edtmico en varios sentidos. Veamos algunos ejemplos.<\/p>\n<p>Sobre datos, modelos y personas<\/p>\n<p>Hace algunos a\u00f1os, lleg\u00f3 a mis manos, por recomendaci\u00f3n de colegas, un art\u00edculo que se titulaba \u00abai is Sexist and Racist. It\u2019s Time to Make it Fair\u00bb7 [La inteligencia artificial es sexista y racista. Es hora de volverla justa], de James Zou y Londa Schiebinger. El art\u00edculo discut\u00eda un aspecto sobre el que hasta ese momento no me hab\u00eda detenido a pensar respecto de los modelos de inteligencia artificial que yo mismo estaba implementando: estos modelos pueden ser sexistas y racistas. En otras palabras, pueden adquirir un sesgo que los lleve a presentar un rendimiento dispar en grupos caracterizados por distintos atributos demogr\u00e1ficos, lo que redunda en un comportamiento desigual o discriminatorio. Y una de las razones detr\u00e1s de este comportamiento eran justamente los datos que usaba para entrenarlos.<\/p>\n<p>Los ejemplos de sesgo algor\u00edtmico adquirido a trav\u00e9s de los datos son variados y muchas veces tienen que ver con bases de datos que no representan en realidad al conjunto de la poblaci\u00f3n. En el caso reportado por Joy Bowlamwini y Timnit Gebru8, en el que diversos sistemas comerciales de reconocimiento facial muestran un rendimiento dispar respecto a variables demogr\u00e1ficas como el g\u00e9nero y el color de la piel, son las mujeres de piel negra el grupo para el cual los modelos presentan peor rendimiento. Este hecho est\u00e1 posiblemente relacionado con la falta de representatividad de mujeres negras en las bases de datos utilizadas para el entrenamiento. Ejemplos similares se encuentran al analizar ImageNet, una de las bases de datos de im\u00e1genes etiquetadas m\u00e1s grandes del mundo, que ha sido motor del desarrollo de los modelos m\u00e1s populares de clasificaci\u00f3n de im\u00e1genes9. ImageNet posee millones de im\u00e1genes clasificadas en miles de categor\u00edas. Sin embargo, pese a que es utilizada mundialmente, m\u00e1s de 45% de las im\u00e1genes provienen de Estados Unidos y reflejan una realidad localizada en el hemisferio norte y que encarna representaciones propias de la cultura occidental. No resulta sorpresivo entonces el ejemplo citado por Zou y Schiebinger: sistemas de inteligencia artificial entrenados con ImageNet asignan las categor\u00edas \u00abnovia\u00bb, \u00abvestido\u00bb, \u00abmujer\u00bb o \u00abboda\u00bb a la imagen de una novia occidental vestida de blanco, pero identifican como \u00abarte de performance\u00bb o \u00abdisfraz\u00bb la imagen de una novia vestida con el t\u00edpico atuendo usado en la India, que ciertamente difiere del occidental.<\/p>\n<p>Otro ejemplo est\u00e1 dado por los traductores autom\u00e1ticos como Google Translate, donde se encontr\u00f3 que el sistema asignaba un g\u00e9nero espec\u00edfico al traducir palabras que son neutras en un idioma y no en otro10, perpetuando as\u00ed estereotipos de g\u00e9nero como la asignaci\u00f3n del g\u00e9nero femenino a la palabra \u00abnurse\u00bb y masculino a \u00abdoctor\u00bb, palabras que en ingl\u00e9s valen para ambos g\u00e9neros. Es posible que en los textos utilizados para entrenar el modelo la probabilidad de encontrar la palabra \u00abnurse\u00bb traducida como \u00abenfermera\u00bb ciertamente fuera m\u00e1s alta, y por tanto el modelo minimiza las chances de error al asignar ese g\u00e9nero en situaciones de incerteza, y lo mismo vale con \u00abdoctor\u00bb. Un caso relacionado es el de los sistemas de puntuaci\u00f3n para la asignaci\u00f3n de pr\u00e9stamos bancarios o l\u00edmites de gasto en tarjetas de cr\u00e9dito: frente a una pareja con ingresos, gastos y deudas similares, la empresa de tarjetas de cr\u00e9dito estableci\u00f3 un l\u00edmite para la mujer de casi la mitad del l\u00edmite del esposo11. La brecha salarial entre hombres y mujeres es una realidad del mundo desigual en que vivimos, y probablemente los datos con los que fue entrenado el modelo la reflejaran, por lo que su recomendaci\u00f3n era asignarle mayor l\u00edmite de gasto al hombre que a la mujer. Es decir, los datos son un reflejo (acotado) de la realidad actual. Sin embargo, en estas situaciones cabe preguntarse: \u00bfrealmente queremos que el modelo perpet\u00fae (y hasta en ocasiones amplifique) las desigualdades, por el solo hecho de que vivimos en una sociedad desigual? \u00bfO queremos modificar esta realidad? El recorte que se hace de estos datos, la poblaci\u00f3n utilizada para construir las muestras, las variables que se miden: todas son decisiones humanas que est\u00e1n lejos de ser neutrales. El aura de neutralidad que muchas veces se atribuye a los sistemas autom\u00e1ticos se desvanece en el instante mismo en que comprendemos la relaci\u00f3n entre los datos, los modelos y las personas. Y la necesidad de auditar la equidad de nuestros modelos tomando en cuenta una perspectiva interseccional se vuelve sumamente relevante.<\/p>\n<p>En ocasiones, cuando detectamos posibles sesgos o rendimientos dispares en estos modelos, es posible pensar en soluciones para mitigarlos. Una de ellas ser\u00eda balancear de alguna forma los datos, para evitar que los modelos resulten discriminatorios o injustos, dependiendo de la situaci\u00f3n que estamos modelando. Otra opci\u00f3n podr\u00eda ser inducir al sistema a que utilice representaciones \u00abjustas\u00bb de los datos, en el sentido de que no est\u00e9n asociadas a las caracter\u00edsticas que son fuente de discriminaci\u00f3n. O, directamente, obligarlo a ignorar estos atributos protegidos, como el g\u00e9nero u otras caracter\u00edsticas demogr\u00e1ficas, al momento de tomar una decisi\u00f3n. Sin embargo, debemos ser cuidadosos al dise\u00f1ar estas soluciones: aunque ocultemos ciertos atributos a un sistema, como el g\u00e9nero o el grupo \u00e9tnico al que pertenece una persona, la correlaci\u00f3n entre esos atributos y otras variables seguir\u00e1 existiendo. Recordemos que si hay algo que los modelos de aprendizaje autom\u00e1tico hacen bien es encontrar patrones y tambi\u00e9n correlaciones. Por eso, si bien la comunidad acad\u00e9mica de investigaci\u00f3n en equidad algor\u00edtmica (fairness) ha trabajado arduamente durante los \u00faltimos a\u00f1os en pos de construir modelos justos y que no discriminen, el factor humano en el dise\u00f1o de estos sistemas resulta primordial. Aunque existen en la actualidad diversas formalizaciones del concepto de fairness, muchas de ellas resultan mutuamente incompatibles, en el sentido de que no es posible maximizarlas al mismo tiempo12, y por tanto se debe optar por aquellas que se desee maximizar.<\/p>\n<p>No alcanza entonces con generar bases de datos representativas o modelos justos en alg\u00fan sentido espec\u00edfico. Los sistemas de inteligencia artificial est\u00e1n dise\u00f1ados por personas con sus propias visiones del mundo, prejuicios, valoraciones de los hechos y sesgos adquiridos a lo largo de su experiencia de vida, que pueden filtrarse en el dise\u00f1o y la definici\u00f3n de criterios de evaluaci\u00f3n para estos modelos. Si esos grupos de trabajo no son lo suficientemente diversos como para reflejar una amplia variedad de visiones, muy probablemente no lleguen siquiera a darse cuenta de la existencia de los sesgos, y por tanto a corregirlos. No hay ejemplo m\u00e1s claro que el caso de Joy Buolamwini, quien descubri\u00f3 el sesgo racial de los sistemas de detecci\u00f3n facial al usarlos en su propio rostro.<\/p>\n<p>Ahora bien, si la diversidad en los equipos que conciben estos sistemas resulta tan relevante, esperar\u00edamos que en la pr\u00e1ctica esos grupos fueran realmente diversos, no solo en t\u00e9rminos de g\u00e9nero, sino tambi\u00e9n de clases sociales, etnias, creencias, edad u orientaci\u00f3n sexual, solo por dar algunos ejemplos. Pero la respuesta no siempre es la que deseamos, y en palabras del ai Now Institute de la Universidad de Nueva York, la industria de la inteligencia artificial est\u00e1 viviendo una crisis de diversidad \u00abdesastrosa\u00bb13. Seg\u00fan su informe, elaborado en 2019, estudios recientes encontraron que solo 18% de los trabajos publicados en las principales conferencias de inteligencia artificial son realizados por mujeres, y que m\u00e1s de 80% de quienes son docentes de inteligencia artificial son hombres. Esta disparidad tambi\u00e9n se refleja en la industria, donde, por ejemplo, las mujeres representan solo 15% del personal de investigaci\u00f3n de inteligencia artificial en Facebook y 10% en Google, dos de las empresas l\u00edderes en el \u00e1rea a escala global. Por otro lado, no se cuenta con datos p\u00fablicos sobre personas trans o con otras identidades de g\u00e9nero. Y a escala regional la situaci\u00f3n tampoco mejora. Por ejemplo, seg\u00fan un informe elaborado por la Asociaci\u00f3n Chicas en Tecnolog\u00eda y el Instituto para la Integraci\u00f3n de Am\u00e9rica Latina y el Caribe del Banco Interamericano de Desarrollo (intal-bid)14 sobre mujeres en el sistema universitario argentino entre 2010 y 2016, existen grandes brechas de g\u00e9nero en el ingreso y egreso de las estudiantes de las disciplinas ctim (ciencia, tecnolog\u00eda, ingenier\u00eda y matem\u00e1tica). As\u00ed, se observa un registro de 33% de mujeres y 67% de varones.<\/p>\n<p>Ahora bien, aunque este escenario suena desolador y muchas de las situaciones que hemos discutido a lo largo de este art\u00edculo resaltan aspectos negativos potencialmente asociados al uso de estas tecnolog\u00edas, muchos de los esfuerzos realizados en los \u00faltimos a\u00f1os para crear conciencia sobre estos riesgos y aumentar la diversidad de la comunidad de inteligencia artificial, tanto en el \u00e1mbito acad\u00e9mico como en la industria, comienzan a sentar las bases para un futuro m\u00e1s promisorio. Iniciativas como la de Chicas en Tecnolog\u00eda o el Observatorio de Datos con Perspectiva de G\u00e9nero en Argentina, o WomenInml, QueerInai, BlackInai y Latinxinai a escala global, solo por nombrar algunas, comienzan a poner en debate y a cuestionar esta realidad. Los gobiernos empiezan a preocuparse por la necesidad de regular el uso y desarrollo de estas tecnolog\u00edas. La emergencia de foros de discusi\u00f3n especializados en estas tem\u00e1ticas y el inter\u00e9s de todas las ramas de la ciencia por conocer las implicancias y potenciales aplicaciones de la inteligencia artificial en sus propios campos de estudio abren nuevos horizontes para el desarrollo cient\u00edfico guiado por los datos. Porque no se trata de obstaculizar el avance de la inteligencia artificial como disciplina, sino de que tanto quienes la utilizan como quienes la desarrollan sean conscientes de sus limitaciones, y de que las tomemos en cuenta a la hora de concebir y hacer uso de estas tecnolog\u00edas.<\/p>\n<p><strong>Notas:<\/strong><br \/>\n1.\u00a0La visi\u00f3n artificial (computer vision) es una rama de las ciencias de la computaci\u00f3n que se encarga de construir algoritmos y programas de computaci\u00f3n capaces de identificar contenido en las im\u00e1genes e interpretarlas.<\/p>\n<p>2.\u00a0Si bien estos sistemas son m\u00e1s conocidos por su uso en vigilancia masiva o publicidad, tambi\u00e9n es posible encontrarlos en otros contextos, como en c\u00e1maras fotogr\u00e1ficas (para hacer foco en el rostro de manera autom\u00e1tica) o en redes sociales (para etiquetar a personas de manera autom\u00e1tica).<\/p>\n<p>3.\u00a0\u00abFacial-Recognition Research Needs an Ethical Reckoning\u00bb, editorial en Nature, 18\/11\/2020.<\/p>\n<p>4.En el contexto de este art\u00edculo, utilizaremos el t\u00e9rmino \u00abrendimiento\u00bb de un sistema de inteligencia artificial para hacer referencia al nivel de acierto de las predicciones que realiza.<\/p>\n<p>5.\u00a0Peter Norvig y Stuart Russell: Artificial Intelligence: A Modern Approach, Pearson, Londres, 2002.<\/p>\n<p>6.\u00a0Kevin P. Murphy: Machine Learning: A Probabilistic Perspective, MIT Press, Cambridge, 2012.<\/p>\n<p>7.\u00a0J. Zou y L. Schiebinger: \u00abai is Sexist and Racist \u2013It\u2019s Time to Make it Fair\u00bb en Nature, 18\/7\/2018.<\/p>\n<p>8.\u00a0J. Buolamwini y T. Gebru: \u00abGender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification\u00bb, trabajo presentado en la 1a Conferencia sobre Equidad, Responsabilidad y Transparencia, disponible en Proceedings of Machine Learning Research (PMLR) vol. 81, 2018.<\/p>\n<p>9.\u00a0Olga Russakovsky et al.: \u00abImageNet Large Scale Visual Recognition Challenge\u00bb en International Journal of Computer Vision vol. 115 No 3, 2015.<\/p>\n<p>10.\u00a0Gabriel Stanovsky, Noah A. Smith y Luke Zettlemoyer: \u00abEvaluating Gender Bias in Machine Translation\u00bb en Actas de la 57a Reuni\u00f3n Annual de la Asociaci\u00f3n de Ling\u00fc\u00edstica Computacional (ACL), 7\/2019.<\/p>\n<p>11.\u00a0Genevieve Smith e Ishita Rustagi: \u00abWhen Good Algorithms Go Sexist: Why and How to Advance ai Gender Equity\u00bb en Stanford Social Innovation Review, 2021.<\/p>\n<p>12.\u00a0Sorelle Friedler, Carlos Scheidegger y Suresh Venkatasubramanian: \u00abThe (Im)Possibility of Fairness: Different Value Systems Require Different Mechanisms for Fair Decision Making\u00bb en Communications of the ACM vol. 64 No 4, 4\/2021.<\/p>\n<p>13.\u00a0Sarah Myers West, Meredith Whittaker y Kate Crawford: \u00abDiscriminating Systems: Gender, Race and Power in AI\u00bb, AI Now Institute, 4\/2019.<\/p>\n<p>14.\u00a0Ana In\u00e9s Basco, Cecilia Lavena y Chicas en Tecnolog\u00eda: \u00abUn potencial con barreras. La participaci\u00f3n de las mujeres en el \u00e1rea de Ciencia y Tecnolog\u00eda en Argentina\u00bb, Nota T\u00e9cnica No IDB-TN-01644, bid, 2019.<\/p>\n<p><em>Este art\u00edculo es copia fiel del publicado en la revista Nueva Sociedad 294, Julio &#8211; Agosto 2021<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u00bfPor qu\u00e9 deber\u00edan importarnos? Por Enzo Ferrante Cada vez m\u00e1s, la inteligencia artificial es parte de nuestras vidas, a menudo de manera imperceptible. Ya no se trata de utop\u00edas tecnol\u00f3gicas sobre el futuro, sino de un presente muy concreto. Pero detr\u00e1s de avances que incluyen desde diagn\u00f3sticos m\u00e9dicos hasta vigilancia masiva est\u00e1n los algoritmos, cuyos [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":3274,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","enabled":false},"version":2}},"categories":[2],"tags":[],"class_list":["post-3273","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"jetpack_publicize_connections":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v23.4 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Inteligencia artificial y sesgos algor\u00edtmicos - UninomadaSUR<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/uninomadasur.net\/?p=3273\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Inteligencia artificial y sesgos algor\u00edtmicos - UninomadaSUR\" \/>\n<meta property=\"og:description\" content=\"\u00bfPor qu\u00e9 deber\u00edan importarnos? Por Enzo Ferrante Cada vez m\u00e1s, la inteligencia artificial es parte de nuestras vidas, a menudo de manera imperceptible. Ya no se trata de utop\u00edas tecnol\u00f3gicas sobre el futuro, sino de un presente muy concreto. Pero detr\u00e1s de avances que incluyen desde diagn\u00f3sticos m\u00e9dicos hasta vigilancia masiva est\u00e1n los algoritmos, cuyos [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/uninomadasur.net\/?p=3273\" \/>\n<meta property=\"og:site_name\" content=\"UninomadaSUR\" \/>\n<meta property=\"article:published_time\" content=\"2021-09-07T15:22:30+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2021-09-07T15:22:36+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/09\/maxresdefault.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1280\" \/>\n\t<meta property=\"og:image:height\" content=\"720\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"admin\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"admin\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"20 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/uninomadasur.net\/?p=3273#article\",\"isPartOf\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=3273\"},\"author\":{\"name\":\"admin\",\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/person\/c7a35ca2374cf2966d7c68ad81604c21\"},\"headline\":\"Inteligencia artificial y sesgos algor\u00edtmicos\",\"datePublished\":\"2021-09-07T15:22:30+00:00\",\"dateModified\":\"2021-09-07T15:22:36+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=3273\"},\"wordCount\":3932,\"commentCount\":0,\"publisher\":{\"@id\":\"https:\/\/uninomadasur.net\/#organization\"},\"image\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=3273#primaryimage\"},\"thumbnailUrl\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/09\/maxresdefault.jpg\",\"articleSection\":[\"Blog\"],\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"CommentAction\",\"name\":\"Comment\",\"target\":[\"https:\/\/uninomadasur.net\/?p=3273#respond\"]}]},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/uninomadasur.net\/?p=3273\",\"url\":\"https:\/\/uninomadasur.net\/?p=3273\",\"name\":\"Inteligencia artificial y sesgos algor\u00edtmicos - UninomadaSUR\",\"isPartOf\":{\"@id\":\"https:\/\/uninomadasur.net\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=3273#primaryimage\"},\"image\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=3273#primaryimage\"},\"thumbnailUrl\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/09\/maxresdefault.jpg\",\"datePublished\":\"2021-09-07T15:22:30+00:00\",\"dateModified\":\"2021-09-07T15:22:36+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/uninomadasur.net\/?p=3273#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/uninomadasur.net\/?p=3273\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/uninomadasur.net\/?p=3273#primaryimage\",\"url\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/09\/maxresdefault.jpg\",\"contentUrl\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/09\/maxresdefault.jpg\",\"width\":1280,\"height\":720},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/uninomadasur.net\/?p=3273#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Inicio\",\"item\":\"https:\/\/uninomadasur.net\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Inteligencia artificial y sesgos algor\u00edtmicos\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/uninomadasur.net\/#website\",\"url\":\"https:\/\/uninomadasur.net\/\",\"name\":\"UninomadaSUR\",\"description\":\"UninomadaSUR\",\"publisher\":{\"@id\":\"https:\/\/uninomadasur.net\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/uninomadasur.net\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/uninomadasur.net\/#organization\",\"name\":\"UninomadaSUR\",\"url\":\"https:\/\/uninomadasur.net\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2018\/09\/uni-logo.png\",\"contentUrl\":\"https:\/\/uninomadasur.net\/wp-content\/uploads\/2018\/09\/uni-logo.png\",\"width\":260,\"height\":94,\"caption\":\"UninomadaSUR\"},\"image\":{\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/logo\/image\/\"}},{\"@type\":\"Person\",\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/person\/c7a35ca2374cf2966d7c68ad81604c21\",\"name\":\"admin\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/uninomadasur.net\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/36436a50c876208a9dab2a6cf1785c4f?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/36436a50c876208a9dab2a6cf1785c4f?s=96&d=mm&r=g\",\"caption\":\"admin\"},\"url\":\"https:\/\/uninomadasur.net\/?author=1\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Inteligencia artificial y sesgos algor\u00edtmicos - UninomadaSUR","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/uninomadasur.net\/?p=3273","og_locale":"es_ES","og_type":"article","og_title":"Inteligencia artificial y sesgos algor\u00edtmicos - UninomadaSUR","og_description":"\u00bfPor qu\u00e9 deber\u00edan importarnos? Por Enzo Ferrante Cada vez m\u00e1s, la inteligencia artificial es parte de nuestras vidas, a menudo de manera imperceptible. Ya no se trata de utop\u00edas tecnol\u00f3gicas sobre el futuro, sino de un presente muy concreto. Pero detr\u00e1s de avances que incluyen desde diagn\u00f3sticos m\u00e9dicos hasta vigilancia masiva est\u00e1n los algoritmos, cuyos [&hellip;]","og_url":"https:\/\/uninomadasur.net\/?p=3273","og_site_name":"UninomadaSUR","article_published_time":"2021-09-07T15:22:30+00:00","article_modified_time":"2021-09-07T15:22:36+00:00","og_image":[{"width":1280,"height":720,"url":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/09\/maxresdefault.jpg","type":"image\/jpeg"}],"author":"admin","twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"admin","Tiempo de lectura":"20 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/uninomadasur.net\/?p=3273#article","isPartOf":{"@id":"https:\/\/uninomadasur.net\/?p=3273"},"author":{"name":"admin","@id":"https:\/\/uninomadasur.net\/#\/schema\/person\/c7a35ca2374cf2966d7c68ad81604c21"},"headline":"Inteligencia artificial y sesgos algor\u00edtmicos","datePublished":"2021-09-07T15:22:30+00:00","dateModified":"2021-09-07T15:22:36+00:00","mainEntityOfPage":{"@id":"https:\/\/uninomadasur.net\/?p=3273"},"wordCount":3932,"commentCount":0,"publisher":{"@id":"https:\/\/uninomadasur.net\/#organization"},"image":{"@id":"https:\/\/uninomadasur.net\/?p=3273#primaryimage"},"thumbnailUrl":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/09\/maxresdefault.jpg","articleSection":["Blog"],"inLanguage":"es","potentialAction":[{"@type":"CommentAction","name":"Comment","target":["https:\/\/uninomadasur.net\/?p=3273#respond"]}]},{"@type":"WebPage","@id":"https:\/\/uninomadasur.net\/?p=3273","url":"https:\/\/uninomadasur.net\/?p=3273","name":"Inteligencia artificial y sesgos algor\u00edtmicos - UninomadaSUR","isPartOf":{"@id":"https:\/\/uninomadasur.net\/#website"},"primaryImageOfPage":{"@id":"https:\/\/uninomadasur.net\/?p=3273#primaryimage"},"image":{"@id":"https:\/\/uninomadasur.net\/?p=3273#primaryimage"},"thumbnailUrl":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/09\/maxresdefault.jpg","datePublished":"2021-09-07T15:22:30+00:00","dateModified":"2021-09-07T15:22:36+00:00","breadcrumb":{"@id":"https:\/\/uninomadasur.net\/?p=3273#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/uninomadasur.net\/?p=3273"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/uninomadasur.net\/?p=3273#primaryimage","url":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/09\/maxresdefault.jpg","contentUrl":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/09\/maxresdefault.jpg","width":1280,"height":720},{"@type":"BreadcrumbList","@id":"https:\/\/uninomadasur.net\/?p=3273#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Inicio","item":"https:\/\/uninomadasur.net\/"},{"@type":"ListItem","position":2,"name":"Inteligencia artificial y sesgos algor\u00edtmicos"}]},{"@type":"WebSite","@id":"https:\/\/uninomadasur.net\/#website","url":"https:\/\/uninomadasur.net\/","name":"UninomadaSUR","description":"UninomadaSUR","publisher":{"@id":"https:\/\/uninomadasur.net\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/uninomadasur.net\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Organization","@id":"https:\/\/uninomadasur.net\/#organization","name":"UninomadaSUR","url":"https:\/\/uninomadasur.net\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/uninomadasur.net\/#\/schema\/logo\/image\/","url":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2018\/09\/uni-logo.png","contentUrl":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2018\/09\/uni-logo.png","width":260,"height":94,"caption":"UninomadaSUR"},"image":{"@id":"https:\/\/uninomadasur.net\/#\/schema\/logo\/image\/"}},{"@type":"Person","@id":"https:\/\/uninomadasur.net\/#\/schema\/person\/c7a35ca2374cf2966d7c68ad81604c21","name":"admin","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/uninomadasur.net\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/36436a50c876208a9dab2a6cf1785c4f?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/36436a50c876208a9dab2a6cf1785c4f?s=96&d=mm&r=g","caption":"admin"},"url":"https:\/\/uninomadasur.net\/?author=1"}]}},"jetpack_featured_media_url":"https:\/\/uninomadasur.net\/wp-content\/uploads\/2021\/09\/maxresdefault.jpg","jetpack_sharing_enabled":true,"jetpack_shortlink":"https:\/\/wp.me\/paDeUS-QN","_links":{"self":[{"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/posts\/3273"}],"collection":[{"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=3273"}],"version-history":[{"count":1,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/posts\/3273\/revisions"}],"predecessor-version":[{"id":3275,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/posts\/3273\/revisions\/3275"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=\/wp\/v2\/media\/3274"}],"wp:attachment":[{"href":"https:\/\/uninomadasur.net\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=3273"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=3273"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/uninomadasur.net\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=3273"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}