domingo, 23 de noviembre de 2025

1691


ESTE REPORTAJE de The Guardian es terrible: dice que los trabajadores que se encargan de desarrollar las IAs saben muy bien de lo poco fiable y ético de lo que están haciendo. Dice la trabajadora de IA Brook Hansen:
Si los trabajadores no cuentan con la información, los recursos y el tiempo que necesitamos, ¿cómo pueden los resultados ser seguros, precisos o éticos? Para mí, esa brecha entre lo que se espera de nosotros y lo que realmente se nos da para hacer el trabajo es una clara señal de que las empresas priorizan la velocidad y las ganancias sobre la responsabilidad y la calidad.
En el reportaje se subraya que está aumentando el problema que ya advertí hace meses, el de que las IAs mienten todo el rato:
Según los expertos, distribuir información falsa con apariencia de fidedigna, en lugar de no ofrecer ninguna respuesta cuando no hay ninguna disponible, es una falla importante de la IA generativa. Una auditoría de los 10 principales modelos de IA generativa, incluyendo ChatGPT, Gemini y Meta AI, realizada por NewsGuard, una organización sin fines de lucro dedicada a la alfabetización mediática, reveló que las tasas de no respuesta de los chatbots disminuyeron del 31 % en agosto de 2024 al 0 % en agosto de 2025. Al mismo tiempo, la probabilidad de que los chatbots repitieran información falsa casi se duplicó, del 18% al 35%. Ninguna de las empresas respondió a la solicitud de comentarios de NewsGuard en ese momento.
Uno de los evaluadores de IA entrevistados por The Guardian declara, incluso, que él no utiliza la IA en su casa porque se conoce el percal:
Yo no uso IA generativa y he aconsejado a todos mis familiares y amigos que no compren teléfonos nuevos que tengan IA integrada, que se resistan, si es posible, a las actualizaciones automáticas que agreguen integración de IA y que no le digan nada personal a la IA.