Si llevas tiempo en el sector tecnológico, puede que hayas oído hablar de cosas como "2025 será el año de los agentes" y "Los agentes de IA dominarán el mundo". Si bien son poderosos, discrepo totalmente de las afirmaciones de que dominarán el mundo. Incluso Meta y Salesforce han afirmado que podrían reemplazar a parte de su plantilla con agentes de IA. Créeme, todas estas son tácticas para impulsar el precio de las acciones.
He estado trabajando en agentes de IA desde sus inicios y también he explorado casi todos los paquetes y modelos de lenguaje grandes (LLM), y existen algunas razones por las que lo creo:
1. Los LLM, aunque buenos, aún están lejos de alcanzar una precisión del 100 %
Es cierto. No te dejes llevar por las cifras de referencia que se comparten en redes sociales. Todo es para generar expectación.
Según mi experiencia personal, los modelos son geniales, pero cada vez que quiero automatizar tareas intermedias, fallan estrepitosamente.Cuando decimos que los agentes de IA reemplazan a los humanos, necesitamos alcanzar una precisión del 100 % en problemas del mundo real y no solo en puntos de referencia.En aplicaciones del mundo real, los errores pueden tener consecuencias significativas, y los modelos de IA no son infalibles. Son impresionantes en ciertas tareas, pero por ahora, no están listos para reemplazar por completo a los humanos.
Por ejemplo, el uso de la IA en sectores como la sanidad o los sistemas jurídicos exige una precisión absoluta, donde incluso un pequeño error podría tener consecuencias desastrosas. La brecha entre los parámetros teóricos y la precisión práctica sigue siendo demasiado grande, lo que hace que la automatización completa sea demasiado arriesgada.
2.Los agentes de IA tienen dificultades para elegir herramientas
He estado probando muchas pruebas de concepto (POC) y un problema común que he encontrado es que los agentes de IA no son muy buenos para decidir cuándo elegir una herramienta y cuándo confiar en su conocimiento interno. Este problema se agrava aún más al trabajar con múltiples herramientas en entornos complejos.
Los agentes de IA están diseñados para ejecutar tareas, pero a menudo tienen dificultades para determinar el enfoque óptimo para una situación particular.
Por ejemplo, si necesita tomar una decisión que implique tanto el análisis de datos como el juicio humano, la IA podría depender excesivamente de una sola herramienta sin incorporar adecuadamente los matices necesarios de la tarea. Cuando se utilizan varias herramientas, coordinar su uso de forma inteligente se convierte en un desafío que los sistemas de IA actuales no pueden abordar por completo. Esto puede generar ineficiencias y errores en los flujos de trabajo, haciéndolos mucho menos fiables que los trabajadores humanos.
3. Los problemas de confianza siempre existirán
Al fin y al cabo, los agentes de IA dependen de modelos de aprendizaje automático, que nunca pueden ser 100 % precisos. Un solo error y la audiencia o el cliente perderán la confianza. Piénsalo:
¿Arriesgarías tus finanzas o tu atención médica con un agente de IA?
¿Te sentirías cómodo tomando un medicamento recetado por un agente?
¿Las organizaciones están de acuerdo en enviar el código generado por IA directamente a producción?
No me parece.
La confianza es un elemento fundamental para el éxito de cualquier colaboración entre humanos e IA. Las personas necesitan confiar en que el sistema de IA puede ofrecer resultados consistentes, precisos y seguros. Con cada error, la confianza se erosiona. Ya lo hemos visto en campos como los vehículos autónomos, donde incluso un pequeño número de accidentes provoca una reacción negativa de la opinión pública. Lo mismo puede decirse de los sectores donde están en juego vidas humanas o importantes intereses financieros: las personas se mantendrán cautelosas a la hora de confiar en los sistemas de IA para tomar decisiones cruciales.
4. Una capa humana sigue siendo esencial
Si bien los agentes de IA pueden destacarse en el manejo de tareas repetitivas y que consumen mucho tiempo, la capa humana siempre será necesaria para tomar decisiones, intervenir en casos extremos y garantizar que se respeten los estándares éticos.No importa cuán sofisticada se vuelva la IA, carece de empatía humana, intuición y la capacidad de navegar por las complejidades morales del mundo real.
Imagine un agente de IA intentando gestionar interacciones delicadas de atención al cliente o mediar en disputas en el entorno laboral. Si bien puede ofrecer soluciones basadas en datos, siempre se quedará corto a la hora de comprender los matices emocionales y ofrecer el tipo de conexión humana que muchas personas esperan. Por lo tanto, la IA no podrá sustituir a los humanos en funciones que requieran empatía, creatividad o razonamiento ético complejo.
En muchos sentidos, los agentes de IA pueden considerarse herramientas para mejorar las capacidades humanas, en lugar de reemplazarlas por completo. Estos agentes pueden realizar tareas de apoyo a los trabajadores humanos, pero no pueden sustituir por completo una presencia humana reflexiva, ética y compasiva.
5. Los sesgos existen y persistirán en los sistemas de IA
El rendimiento de los agentes de IA depende de los datos con los que se entrenan. Si los datos presentan sesgos, estos sesgos se infiltran en todo lo que utilizan. Los modelos de IA carecen de conciencia ni de capacidad de razonamiento ético como los humanos. Por lo tanto, si se entrenan con datos con sesgos inherentes, los problemas persistirán.
Uno de los mayores desafíos con los agentes de IA es garantizar la equidad y la inclusión. Los modelos de IA suelen entrenarse con grandes conjuntos de datos extraídos de internet, conocido por contener sesgos sociales. Por ejemplo, si un agente de IA se utiliza en la contratación o en la aplicación de la ley, podría perpetuar involuntariamente la discriminación de género o racial si sus datos de entrenamiento reflejan esos patrones. Las consecuencias de estos sesgos podrían ser devastadoras, afectando vidas reales y reforzando las desigualdades sociales.
Además, los sesgos en los modelos de IA no son fácilmente detectables ni corregibles.Incluso con un mayor escrutinio y ajustes, puede ser difícil eliminar cualquier tipo de sesgo en un modelo de aprendizaje automático. Por eso, la transparencia y la monitorización continua son esenciales en los sistemas de IA, pero ni siquiera estas medidas pueden garantizar que los agentes de IA actúen siempre con imparcialidad.
6. Preocupaciones éticas y legales: Los agentes de IA podrían abrir la caja de Pandora
La implementación de agentes de IA podría dar lugar a una gran cantidad de desafíos éticos y legales.
¿Quién es responsable cuando un agente de IA comete un error?
¿Quién es responsable cuando un sistema de IA se utiliza con fines maliciosos, como manipular la opinión pública o cometer fraude?
Éstas son preguntas cruciales que no tienen respuestas fáciles.
Los gobiernos, las corporaciones y las empresas tecnológicas deben establecer directrices y regulaciones claras para regular el uso de agentes de IA. De lo contrario, la proliferación descontrolada de estos sistemas podría acarrear diversas consecuencias imprevistas, desde violaciones de la privacidad hasta monopolios. Si se permite que los agentes de IA operen sin la supervisión adecuada, podrían agravar los mismos problemas que se supone que deben resolver, como la desigualdad y la pérdida de empleos.
Además, las cuestiones relacionadas con los derechos de la IA, la propiedad de los datos y el consentimiento del usuario serán cada vez más urgentes a medida que estas tecnologías avancen. Sin un marco que proteja a las personas y a la sociedad en general, los agentes de IA podrían representar una amenaza para las mismas libertades que pretenden promover.
7.La dependencia excesiva de la IA puede provocar la pérdida de habilidades esenciales
Cuanto más dependamos de los agentes de IA, mayor será el riesgo de perder nuestras capacidades de resolución de problemas y pensamiento crítico. Si la IA empieza a gestionar un número cada vez mayor de tareas, desde la introducción de datos básicos hasta la toma de decisiones más complejas, las funciones cognitivas de los humanos podrían empezar a atrofiarse.
Al igual que con cualquier herramienta, la dependencia excesiva de la IA puede mermar las capacidades humanas. En lugares de trabajo donde los empleados pueden llegar a depender excesivamente de la IA para realizar sus tareas, podrían perder habilidades esenciales con el tiempo. Es similar a la preocupación por la navegación GPS: las personas ya no pueden navegar tan bien sin la ayuda de la tecnología. De igual modo, en un mundo dominado por agentes de IA, las personas pueden perder su capacidad de pensar creativamente o resolver problemas complejos sin ayuda tecnológica.
Al final, si bien los agentes de IA podrían liberar tiempo y permitirnos concentrarnos en tareas de nivel superior, también podrían hacernos menos autosuficientes y más vulnerables a fallas tecnológicas.
Conclusión
Los agentes de IA, si bien son sin duda una tecnología impresionante y transformadora, presentan serias desventajas que no pueden ignorarse. Desde problemas de confianza y sesgos hasta la falta de responsabilidad ética y la dependencia de modelos imperfectos, los riesgos superan los beneficios cuando se trata de reemplazar por completo a los trabajadores o las decisiones humanas. Si bien los agentes de IA desempeñarán sin duda un papel importante en el aumento de las capacidades humanas, nunca deben considerarse un sustituto de los humanos.
El revuelo en torno a que los agentes de IA se apoderarán del mundo es solo eso: revuelo.Hasta que estas tecnologías evolucionen para abordar las numerosas deficiencias descritas anteriormente, los agentes de IA no estarán listos para dominar nuestra fuerza laboral ni para tomar decisiones cruciales. Es fundamental que abordemos su integración con cuidado, garantizando que las personas permanezcan en el centro de cualquier proceso que involucre IA.
Fuente: traducido al español y tomado de Medium.com -> https://medium.com/data-science-in-your-pocket/why-ai-agents-will-be-a-huge-disaster-9a68d9db18a1
Escrito por:
Mehul Gupta