Un análisis realizado por el Centro para la Comunicación Constructiva (CCC) del MIT ha puesto de manifiesto que los chatbots más avanzados, como GPT-4, Claude 3 Opus y Llama 3, presentan sesgos que afectan la calidad de sus respuestas, particularmente para aquellos usuarios con menor dominio del inglés, bajo nivel educativo o que residen fuera de Estados Unidos. Esta situación podría acentuar la desigualdad en el acceso a la información a nivel global.
Los modelos de lenguaje de última generación prometían revolucionar el acceso al conocimiento, brindando una plataforma accesible y amigable para todos. Sin embargo, el estudio presentado en la Conferencia AAAI de Inteligencia Artificial revela que, contrariamente a estas expectativas, la precisión y veracidad de las respuestas disminuyen considerablemente cuando provienen de usuarios en situación de vulnerabilidad.
La investigadora principal, Elinor Poole-Dayan, enfatiza que para que la democratización de la información sea efectiva, es crucial abordar y mitigar los sesgos presentes en estos modelos de inteligencia artificial. Los resultados del estudio, que incluyeron análisis de preguntas de usuarios con diferentes antecedentes educativos y lingüísticos, evidencian que aquellos con menos formación o de países no angloparlantes reciben respuestas de menor calidad, intensificando las barreras de acceso a la información.



