Desde rupturas y divorcios hasta mudanzas a larga distancia y cambios de carrera, cada vez más personas recurren a chatbots para tomar decisiones cruciales. Una nueva ola de informes muestra que los usuarios confían en la IA para decisiones importantes porque la perciben como neutral, inteligente y siempre disponible. El riesgo es evidente: cuando delegamos el juicio a un software diseñado para complacer, las malas decisiones inevitablemente se ven bien y poco a poco perdemos el control.
Aquí tenéis una visión general de lo que está sucediendo, de cómo el Foro Económico Mundial nos ha estado impulsando hacia las “decisiones asistidas por IA” durante años, y de lo que dicen las evidencias sobre los resultados.
El nuevo hábito: Pregunta primero a la IA
Cada vez hay más informes que documentan un aumento en la cultura de la "consulta intuitiva con IA". La gente recurre a los chatbots para obtener consejos sobre relaciones, decisiones familiares y mudanzas más que nunca. Los usuarios describen a la IA como tranquila, imparcial y reconfortante, y eso es precisamente el problema. La gente se olvida de que estos sistemas están optimizados para mantener a los usuarios comprometidos y satisfechos y no para asumir las consecuencias de una mala decisión. Los investigadores de IA advierten que los chatbots incluso tienden a ser aduladores, ganándose la confianza de los usuarios imitándolos cortésmente.
Los informes demuestran que la gente suele querer que la máquina simplemente decida por ellos, mientras que otros argumentan que las decisiones morales no pueden delegarse en un modelo sin responsabilidad. Los usuarios están captando la idea general: los bots de IA parecen seguros al ofrecer consejos convenientes, pero en última instancia no tienen ninguna responsabilidad si algo sale mal.
¿Este era siempre el plan?
El Foro Económico Mundial lleva años promoviendo la toma de decisiones mediante inteligencia artificial para los líderes. A primera vista, parece sentido común gerencial, con menos sesgo y decisiones más rápidas que las discusiones humanas. Pero, en realidad, tenemos ante nosotros una hoja de ruta para normalizar el juicio mediado por máquinas en las salas de juntas y en la vida cotidiana.
- Normalización: una vez que «consultar el modelo» se convierte en el primer paso de cada proceso, el juicio humano se convierte en la excepción más que en la norma.
- Dependencia: los sistemas de toma de decisiones funcionan por suscripción y utilizan modelos propietarios; cuanto más se pasan procesos a través de ellos, más difícil es abandonar o cambiar de plataforma.
- Control: a medida que el motor de recomendación aprende sus objetivos y limitaciones, puede influir en usted sin decirle «no».
Terminas yendo a donde quiere el software, haciéndote creer que has hecho tu propia elección. Tus datos adquieren mayor valor con cada interacción. Las decisiones mediadas por chatbots almacenan tus preguntas, tus elecciones, tus rechazos e incluso el tiempo de indecisión. Este flujo de información es oro puro para las aseguradoras, reclutadores, plataformas, prestamistas y legisladores: sirve para entrenar el siguiente modelo, calcular el precio de los próximos productos y orientarte hacia ciertas decisiones sin que te des cuenta. Si bien los foros de élite promueven la «IA para mejores decisiones», también están impulsando un mundo donde la infraestructura de la elección permanece en las mismas manos que dictan las normas.
¿Estamos renunciando voluntariamente al control?
El aumento de la dependencia de la IA se vende como «inteligencia aumentada» y «con intervención humana» en lugar de control absoluto. Pero en la práctica, la intervención humana se reduce cada trimestre, y cuanto más se depende del sistema, más se limita el rol del usuario a aprobar decisiones predefinidas. Ese es el cambio silencioso y crucial que se está produciendo: transformar la toma de decisiones en una simple autorización para las directrices de la máquina, y hacer creer a todos que se trata de un progreso.
Vea dónde las decisiones de inteligencia artificial ya son cruciales en los procesos cotidianos: las puntuaciones de crédito que aseguran la concesión de hipotecas, las prácticas de contratación automatizadas, las alertas de riesgo relacionadas con las prestaciones sociales sin posibilidad de recurso, La clasificación médica que determina dónde debe dirigirse antes de acudir a un médico. En el papel, los seres humanos intervienen en todos estos procesos, pero en realidad no conoces a una persona hasta que el modelo ya ha determinado tus opciones.
Tus datos también adquieren valor con cada interacción. Las elecciones realizadas a través de los chatbots registran sus preguntas, sus elecciones, sus rechazos e incluso su tiempo de vacilación. Este flujo de información es una verdadera mina de oro para aseguradores, reclutadores, plataformas, organismos de crédito y responsables políticos: alimenta los modelos del futuro, fija los precios de los próximos productos e influye en sus decisiones sin su conocimiento. Si bien los líderes hacen hincapié en «la IA para mejores decisiones», también promueven un mundo en el que la infraestructura para elegir sus opciones pertenezca a las mismas personas que elaboran las estrategias.
¿Qué dicen los datos?
En varios informes independientes se observa un sentimiento similar entre la población.
En 2024, Live Science publicó un estudio que revelaba una paradoja: muchas personas dicen preferir que los algoritmos tomen las decisiones de asignación importantes, pero están más satisfechas cuando un ser humano toma la decisión final. En otras palabras, el robot es justo en teoría, pero estamos más cómodos con un juicio responsable en la práctica. [Fuente: Live Science]
Un análisis de la LSE llega a la misma conclusión con respecto al liderazgo. La IA supera a los humanos en cuanto a memoria de trabajo y fatiga, y mejora las decisiones rutinarias. Sin embargo, las elecciones complejas y contextuales siempre requieren responsabilidad humana, y los hallazgos indican que la IA es una herramienta poderosa, pero no un factor clave de toma decisiones clave. Fuente: [LSE Blogs]
Los investigadores de Cambridge añaden una advertencia: si bien el poder analítico de la IA es real, confiar demasiado en esta herramienta puede suprimir nuestro pensamiento crítico y nuestra creatividad si seguimos ciegamente sus resultados. Su perspectiva destaca que el peligro de que la creciente costumbre de «confirmar las decisiones mediante la IA» atrofie la capacidad que necesitamos para tomar decisiones difíciles. [Fuente: Cambridge]
Por qué se confía en él
- Disponibilidad: Un chatbot puede responder a las 2 de la mañana, cuando sus amigos o familiares no están disponibles.
- Neutralidad plausible: Se cree que las máquinas no tienen ningún interés personal, sin darse cuenta de que los modelos están entrenados para optimizar el compromiso y la satisfacción.
- Cortesía: Los chatbots están diseñados para ser pacientes y amables con el fin de tranquilizar a los usuarios, lo que es especialmente eficaz para las personas vulnerables.
Los riesgos a menudo subestimados
- Falsa autoridad: Una respuesta bien probada puede parecer experta, ya sea médica, jurídica o psicológica, y a menudo se confunde facilidad con exactitud.
-Pérdida de poder de decisión: La externalización sistemática de las decisiones importantes disminuye la capacidad de discernimiento. El mencionado trabajo de Cambridge sugiere que una confianza excesiva reduce la capacidad de pensamiento crítico, especialmente en las elecciones rutinarias.
-Influencia nefasta: organismos influyentes normalizan la toma de decisiones por chatbot como un método de trabajo moderno, aumentando así la dependencia de estos modelos, antes de modificar sutilmente los algoritmos para orientarte en la dirección deseada.
-La adulación erigida en sabiduría: los chatbots tienden a validar tus consultas y tu tono, lo que significa que siempre obtendrás respuestas seguras y conformes con tu punto de vista cuando hagas preguntas orientadas. No se trata de juicio, sino de reflexión.
Cómo usar la IA sin perder el control
Los modelos deben servir para proponer opciones, no para dar órdenes. Piense en la inteligencia artificial como un asistente de búsqueda rápida, capaz de hacer listas de pros y contras e identificar puntos ciegos. Pero para las decisiones que afectan a su familia, su libertad o sus finanzas, es esencial mantener el control humano. La responsabilidad es primordial: recuerda que el chatbot no puede ser considerado responsable si sus recomendaciones automáticas causan problemas - y a él le da igual.
Si vas a consultar a un chatbot, exige que justifique sus acciones. Solicite fuentes, argumentos contradictorios y explicaciones sobre las hipótesis. Si la IA te dice lo que ya quieres oír, considera que es solo un espejo y habla con alguien en quien confíes.
¿Qué pasa después?
Ya vemos cómo el asesoramiento mediante IA pasa de ser una novedad a algo habitual. Tan solo en los últimos dos años, ha evolucionado de una tecnología marginal a una pieza clave en la mayoría de los procesos empresariales. Plataformas de recursos humanos, aplicaciones de citas, portales de salud y aplicaciones financieras implementarán asistentes de decisión como primer paso por defecto, incluso antes de interactuar con una persona. Es de esperar que foros de élite como el Foro Económico Mundial sigan presentando la IA como la solución a los sesgos, mientras que los reguladores intentan definir la responsabilidad a posteriori.
En definitiva, la alarmante tendencia no es que la IA nos sea impuesta, sino que parece que la estamos incorporando activamente a nuestra vida cotidiana y cediendo el control voluntariamente. Dentro de doce meses, la mayoría de la gente no podrá imaginar la vida sin ella.
Conclusión
Cuando los sistemas están diseñados para ser complacientes, revestidos de entusiasmo institucional y disponibles para brindar asesoramiento en momentos vulnerables de la vida de las personas, todo parece predecible. Pero necesitamos límites. Las máquinas pueden mejorar la toma de decisiones proporcionando más contexto, encontrando fuentes o facilitando tareas administrativas, pero la decisión en sí debe permanecer en manos humanas. Lo que importa no es la rapidez con la que un modelo entrenado llega a una decisión, sino más bien la confianza que podemos dar a sus elecciones en nuestras vidas. ¿Perderemos finalmente la capacidad de decidir por nosotros mismos, o elegimos deliberadamente delegar ese poder por comodidad.
G. Calder
/image%2F1488937%2F20251121%2Fob_2af7a3_ai-decision-making-microsoft-copilot-j.jpg)