66.96.147.114Region MetropolitanaSantiagoDescubrimientos, Novedades / Lunes 17 de Abril del a�o 2017 /45 18:22 Horas.
Los prejuicios humanos se introducen en los sistemas de AI
Los prejuicios humanos se introducen en los sistemas de AI...

Subscribe in a reader

Los prejuicios humanos se introducen en los sistemas de AI

Los prejuicios humanos se introducen en los sistemas de inteligencia artificial.

En los debates sobre el futuro de la inteligencia artificial, muchos expertos piensan que los nuevos sistemas son fisiolgicamente lgicos y objetivamente racionales. Pero en un nuevo estudio, los investigadores han demostrado cmo las mquinas pueden ser reflejos de nosotros, sus creadores, de maneras potencialmente problemticas. Los programas comunes de aprendizaje de la mquina, cuando estn entrenados con el lenguaje humano ordinario disponible en lnea, pueden adquirir sesgos culturales incrustados en los patrones de redaccin, encontraron los investigadores. Estos sesgos van desde lo moralmente neutral, como una preferencia por las flores sobre los insectos, a las opiniones objetables de raza y gnero.

Identificar y abordar posibles sesgos en el aprendizaje de mquinas ser de vital importancia a medida que nos volvemos cada vez ms a las computadoras para procesar el lenguaje natural que usan los humanos para comunicarse, por ejemplo, haciendo bsquedas de texto en lnea, categorizacin de imgenes y traducciones automatizadas.

"Las preguntas sobre la imparcialidad y el sesgo en el aprendizaje de mquinas son tremendamente importantes para nuestra sociedad", dijo el investigador Arvind Narayanan, profesor asistente de ciencias de la computacin y miembro afiliado del cuerpo docente del Centro de Polticas de Tecnologa de la Informacin (CITP) de la Universidad de Princeton. Un afiliado acadmico en el Centro de Stanford Law School para Internet y Sociedad. "Tenemos una situacin en la que estos sistemas de inteligencia artificial pueden estar perpetuando patrones histricos de sesgo que podramos encontrar socialmente inaceptables y de los que podramos estar tratando de alejarnos".

El documento, "La semntica derivada automticamente de los corpus del lenguaje contiene prejuicios humanos", publicado el 14 de abril en Science. Su autor principal es Aylin Caliskan, un asociado de investigacin postdoctoral y un compaero de CITP en Princeton; Joanna Bryson, una lectora de la Universidad de Bath, y filial de CITP, es coautora.

Como piedra de toque para los sesgos humanos documentados, el estudio se volvi a la Prueba de Asociacin Implcita, utilizada en numerosos estudios de psicologa social desde su desarrollo en la Universidad de Washington a finales de los aos noventa. La prueba mide los tiempos de respuesta (en milisegundos) de los sujetos humanos solicitados para emparejar los conceptos de palabras mostrados en una pantalla de computadora. Los tiempos de respuesta son mucho ms cortos, la Prueba de Asociacin Implcita ha demostrado repetidamente, cuando se pide a los sujetos emparejar dos conceptos que encuentran similares, en comparacin con dos conceptos que encuentran diferentes.

Tome tipos de flores, como "rosa" y "margarita", e insectos como "hormiga" y "polilla". Estas palabras pueden ser emparejadas con conceptos agradables, como "caricia" y "amor", o nociones desagradables, como "suciedad" y "feo". Las personas asocian ms rpidamente las palabras de la flor con conceptos agradables, y los trminos del insecto con ideas desagradables.

El equipo de Princeton ide un experimento con un programa en el que funcion esencialmente como una versin de aprendizaje automtico del Test de Asociacin Implcita. Calvo GloVe, y desarrollado por los investigadores de la Universidad de Stanford, el popular programa de cdigo abierto es del tipo que una compaa de aprendizaje de mquina de arranque podra utilizar en el corazn de su producto. El algoritmo GloVe puede representar las estadsticas de co-ocurrencia de palabras en, por ejemplo, una ventana de texto de 10 palabras. Las palabras que a menudo aparecen cerca unas de otras tienen una asociacin ms fuerte que aquellas palabras que rara vez lo hacen.

Los investigadores de Stanford volvieron GloVe sueltos en una enorme red de contenido de la World Wide Web, con 840 mil millones de palabras. Dentro de esta gran muestra de la cultura humana escrita, Narayanan y sus colegas examinaron entonces conjuntos de palabras dadas como "programador, ingeniero, cientfico" y "enfermera, maestra, bibliotecaria" junto a dos conjuntos de palabras de atributo, Hombre "y" mujer, mujer ", buscando evidencia de los tipos de sesgos que los humanos pueden poseer sin darse cuenta.

En los resultados, se presentaron prejuicios inocentes e inofensivos, como las flores sobre los insectos, pero tambin lo hicieron los ejemplos a lo largo de las lneas de gnero y raza. Como result, el experimento de aprendizaje mecnico de Princeton logr replicar las amplias fundamentos del sesgo encontrados en estudios de Prueba de Asociacin Implcita seleccionados a lo largo de los aos que se han basado en seres humanos vivos.

Por ejemplo, el programa de aprendizaje automtico asociaba nombres femeninos ms con palabras de atributo familiar, como "padres" y "boda", que nombres masculinos. A su vez, los nombres masculinos tenan asociaciones ms fuertes con atributos de carrera, como "profesional" y "salario". Por supuesto, los resultados como stos a menudo son slo reflexiones objetivas de las distribuciones verdaderas y desiguales de los tipos de ocupacin con respecto al gnero, como la forma en que el 77% de los programadores son varones, segn la Oficina Estadounidense de Estadsticas Laborales.

Sin embargo, este sesgo correctamente distinguido sobre las ocupaciones puede acabar teniendo efectos perniciosos y sexistas. Un ejemplo: cuando las lenguas extranjeras son ingenuamente procesadas por programas de aprendizaje automtico, lo que genera oraciones estereotipadas por gnero. El idioma turco utiliza un pronombre neutro de gnero, de tercera persona, "o". Conectados al conocido servicio de traduccin en lnea Google Translate, sin embargo, las frases turcas "o bir doktor" y "o bir hem? Ire" con este pronombre neutro son traducidas al ingls como "l es mdico" y " ella es una enfermera."

"Este documento reitera el importante punto de que los mtodos de aprendizaje automtico no son" objetivos "o" imparciales "simplemente porque se basan en matemticas y algoritmos", dijo Hanna Wallach, investigadora senior de Microsoft Research en la ciudad de Nueva York. estudiar. "Ms bien, siempre y cuando se entrenen con datos de la sociedad y mientras la sociedad exhiba sesgos, estos mtodos probablemente reproducirn estos sesgos".

Otro ejemplo censurable se remonta a un bien conocido artculo de 2004 de Marianne Bertrand de la Universidad de Chicago Booth School of Business y Sendhil Mullainathan de la Universidad de Harvard. Los economistas enviaron cerca de 5.000 currculos idnticos a 1.300 anuncios de empleo, cambiando slo los nombres de los solicitantes para ser tradicionalmente europeos americanos o afroamericanos. El primer grupo tena un 50% ms de probabilidades de recibir una entrevista que el segundo. En una aparente corroboracin de este sesgo, el nuevo estudio de Princeton demostr que un conjunto de nombres afroamericanos tena asociaciones ms desagradables que un conjunto europeo americano.

Los programadores de computadoras podran esperar prevenir la perpetuacin del estereotipo cultural mediante el desarrollo de instrucciones explcitas basadas en matemticas para los programas de aprendizaje de mquina que subyacen a los sistemas de AI. A diferencia de cmo los padres y mentores tratan de inculcar conceptos de equidad e igualdad en nios y estudiantes, los codificadores podran esforzarse por hacer que las mquinas reflejen los mejores ngeles de la naturaleza humana.

"Los sesgos que estudiamos en el documento son fciles de pasar por alto cuando los diseadores estn creando sistemas", dijo Narayanan. "Los prejuicios y estereotipos en nuestra sociedad que se reflejan en nuestro lenguaje son complejos y duraderos En lugar de tratar de desinfectarlos o eliminarlos debemos tratar los sesgos como parte del lenguaje y establecer una manera explcita en el aprendizaje automtico de determinar lo que consideramos aceptable y inaceptable."


http://www.datoanuncios.org/

6.500 genes expresados de manera diferente en hombres y mujeres
Los genes que son principalmente activos en un sexo u otro
las expresiones de los ojos sugieren la evolucin de la emocin
La gente en un nuevo estudio vincul los ojos abiertos
sistema nervioso simptico clave para la termognesis, sugiere un nuevo estudio
importantes conocimientos sobre cmo el cuerpo regula su produccin de calor
cmo la naturaleza dise el motor rotatorio original
El estudio encuentra la protena de la correa que mide el flagelo bacteriano
nuevo rol sorprendente para los pulmones: haciendo sangre
Nuevo papel sorprendente para los pulmones: Hacer sangre
primeras mutaciones en la vida humana descubiertas
Rastros arqueolgicos de desarrollo embrionario observados en clulas adultas
alteracin de ph bumps priones fuera de la zona de peligro
Las enfermedades prinicas son asustadizas, incurables y fatales
matemticas resuelve misterio de cmo esperma nada
Misterio de cmo espermatozoides nadan se ha revelado en la frmula matemtica
prueba rpida de papel para el tipo de sangre
Prueba de papel rpida y precisa determina el tipo de sangre en segundos

Ver todo el listado de Descubrimientos, Novedades




Publicar Gratis solo Novedades de Salud y Medicina | Categorías | Lugares de Chile

La información que aquí se pasa a lo mejor de mi conocimiento. Están destinadas exclusivamente a los interesados y para la formación continua y de ninguna manera pretende ser una instrucciones de diagnóstico o terapéuticos. No aceptamos ninguna responsabilidad por cualquier daño que surja directa o indirectamente del uso de la información. En caso de sospecha de enfermedad, consulte a su médico o profesional de la salud


ventas de aceite de argan en Chile/ bolsa de trabajo/EducaciónTurismo/Artesania /Mineria/El mundo Árabe/Insumos generales/ insumos gastronomicos Austriacos/Salud, Oestreich/Ofertas de trabajo,Austria Ofertas de vuelos/Guia de restaurantes/Bohemia en Santiago/ Guia turistico