|
Noticias del portal sobre tecnología Sólo el staff puede publicar aquí |
|
Herramientas |
#1
|
||||
|
||||
Amazon ha dejado sin trabajo por sexista a la inteligencia artificial que le revisaba los currículums, según Reuters
Amazon ha dejado sin trabajo por sexista a la inteligencia artificial que le revisaba los currículums, según Reuters Leemos en xataka.com "Especialistas en aprendizaje automático de Amazon han estado dando forma a una herramienta para revisar los currículums de solicitantes de empleo desde 2014. Una manera de agilizar la búsqueda de talento. Sin embargo, descubrieron un gran problema: su motor de reclutamiento era sexista. No le gustaban las mujeres. Esto es lo que asegura Reuters, tras recabar los testimonios de cinco personas familiarizadas con el asunto. La idea era que esta herramienta basada en inteligencia artificial fuese capaz de procesar un alto número de currículums y, tras examinarlos, arrojase cinco candidatos perfectos listos para contratar. Aunque no era nada neutral. En 2015, según la información publicada por la agencia de noticias, desde Amazon se dieron cuenta que su sistema de reclutamiento no juzgaba de manera neutral en cuanto al género. Tenía un sesgo en favor de los hombres a la hora de examinar candidatos para puestos de desarrollador de software y otras ocupaciones de carácter técnico. ¿Por qué? Por la base de datos. Parece ser que los especialistas en aprendizaje automático entrenador la herramienta de inteligencia artificial a partir de patrones que podían observarse en los currículos presentados a la empresa durante una década. Y la mayoría de ellos pertenecían a hombres; ahí estaba el problema." fuente: xataka.com |
|
#3
|
||||
|
||||
Ya, por qué me da que el motivo es otro... Que la IA no deja que se emplee la discriminación positiva.
|
Los siguientes 3 usuarios han agradecido a koumba su comentario: | ||
#4
|
||||
|
||||
De todos modos, si la razón de sus elecciones era su "entrenamiento", tal vez haya escogido los mejores candidatos sin discriminar en absoluto. Todo esto lo comento desde el máximo respeto; es un tema delicado y no pretendo herir ninguna sensibilidad. La discriminación nunca es aceptable, ni siquiera la inversa (mal llamada "positiva"). |
#6
|
||||
|
||||
Además, sin ser yo informático, implementar un último factor de corrección en la selección de personal a favor de un género, sería bastante sencillo. No habrían tenido que cancelar el programa si fuera por eso. Por el contrario, lo que cuenta la noticia tiene bastante sentido: el sesgo (a favor de los hombres) está en el origen, en las bases de datos de las que "aprende" la IA. No tiene que ser, desde luego, malintencionado, pero es obvio que debería corregirse. Lo cierto es que me temía este tipo de comentarios sectarios y a la defensiva. La realidad objetiva es que la mujer está discriminada en el mercado laboral, por lo que un error como el de la noticia es más grave aún. Y en vez de alegrarnos de que se haya solucionado, la reacción es buscar una conspiración sin más indicios que la paranoia de lo políticamente correcto. En fin. Como si no quedara bastante por avanzar, a cada pasito ya tienen que saltar algunos a decir que se está llegando demasiado lejos. |
#7
|
||||
|
||||
Es la prueba de que la inteligencia artificial no parece muy inteligente, mas bien se parece a un loro que solo repite lo que su dueño le enseña.
|
#8
|
||||
|
||||
Ek quid de todo esto y que nadie comenta es cómo este tipo de cosas las hace una máquina... por muchos currículums que se envién a diario... esto lo pueden hacer unas cuantas personas. Porfavor no me jodas, si se dedican sólo a eso no creo que haya problema.
Salu2!
__________________
Móvil Principal: Samsung Galaxy S23 Ultra 5G, Versión 12GB RAM/512GB ROM
Móvil Secundario: Xiaomi 12 5G Otros: LG G5 (Reserva), Smartwatch Amazfit GTR-4 |
#9
|
||||
|
||||
Considerala mas bien como una ayuda en al automatización de procesos, siguiendo unos determinados patrones y cumpliendo unas restricciones. No es "inteligente".
__________________
Que tiemblen los Iphone, los androides estan aqui!
Mis juguetes: iPhone SE ex: Xperia Z3, Xperia Z1, LG Optimus G, HTC's One X, Desire HD, Nexus s, Nexus One, Xperia X10 mini pro, 3GS, Wildfire, Legend, Wave S8500 (andronizado), Milestone, Diamond, Ipaq, y C7. |
#10
|
||||
|
||||
La IA imagino que se basaba en unos patrones, independientemente del género que fuese el candidato, si no les cumplías te desechaba. Pero a día de hoy donde vivimos en el mundo de la corrección política queda mejor decir que no les contrataba porque eran mujeres. En fin.
|
#11
|
||||
|
||||
La IA imagino que se basaba en unos patrones, independientemente del género que fuese el candidato, si no les cumplías te desechaba. Pero a día de hoy donde vivimos en el mundo de la corrección política queda mejor decir que no les contrataba porque eran mujeres. En fin.
|
#12
|
||||
|
||||
#13
|
||||
|
||||
Esta claro que solo hay dos lecturas posibles, y son bastante opuestas. La IA fue calificada de "machista" por seleccionar como optimos mas perfiles masculinos que femeninos y eso es debido a:
O bien, como dicen unos, discriminacion positiva a las mujeres. O la base de datos con la que se entrenó la IA tenia un sesgo "machista". Recordemos que por muy "inteligente" que llamemos a las IA, tan solo son unos algoritmos matematicos que en funcion de los datos que le introduzcas te da un resultado. No hay espacio para valoraciones machistas o feministas. O estamos queriendo meter mas mujeres "menos cualificadas" por discriminacion positiva, o la base de datos con la que se entreno el algoritmo tenia ya un sesgo hacia la contratacion de mas hombres. |
#14
|
||||
|
||||
Y personalmente, si es verdad me alegro que lo solucionen. |
Estás aquí | ||||||
|