Justificación de la métrica:
La comprensión de creencias falsas es la capacidad de un sistema inteligente, ya sea humano o IA, de comprender que otro agente puede tener una creencia que no solo difiere del conocimiento del sistema, sino que también es objetivamente incorrecta. En el desarrollo humano, esta habilidad se demuestra famosamente en tareas de "Teoría de la Mente", como la clásica prueba de Sally-Anne, donde los niños deben darse cuenta de que Sally no sabe un dato clave que ellos mismos han aprendido. Reconocer que alguien puede actuar bajo una creencia incorrecta es crucial para predecir comportamientos, aclarar malentendidos o proporcionar información correctiva.
Para una IA o robot humanoides, la comprensión de creencias falsas va más allá de modelar estados como "el usuario no sabe X". También requiere reconocer que el usuario podría creer positivamente "X es verdadero" incluso si "X es falso" según los datos de la IA. Esta diferencia influye en la forma en que el agente interactúa e intercambia información. Si un usuario actúa bajo una concepción errónea, por ejemplo, creyendo que una sala de conferencias todavía está disponible a pesar de haber sido reservada, la IA debe darse cuenta de que el modelo mental del usuario diverge de la realidad. A su vez, podría corregirlos o, al menos, interpretar sus acciones a la luz de esa concepción errónea.
Técnicamente, esto implica realizar un seguimiento de estados para cada agente: no solo su conocimiento, sino también sus creencias y cómo esas creencias pueden desviarse de la realidad. La IA puede confiar en señalesles textuales o vocales, historial del usuario o desencadenadores contextuales. Por ejemplo, si el usuario nunca recibió una actualización de que la sala fue reservada, la IA infiere que mantiene una "creencia falsa" sobre su disponibilidad. El sistema también debe manejar evidencia parcial o señalesles ambiguas, quizás la creencia del usuario es incierta o cambia una vez que recibe nuevas pistas.
Los desafíos incluyen:
Detección de suposiciones ocultas: Los usuarios a menudo no anuncian sus creencias explícitamente. La IA debe inferir a partir de consultas, declaraciones o comportamientos que el usuario cree algo incorrecto.
Evitar una anulación inmediata: En algunos contextos sociales, decirle a alguien "Estás equivocado" puede ser molesto. Es clave equilibrar cortesía mientras se corrigen las creencias falsas.
Confusión multi-agente: Si varios usuarios tienen creencias diferentes, incluyendo falsas, la IA podría manejar varios modelos de "estado mental" paralelos.
Actualizaciones dinámicas: Un usuario puede abandonar o confirmar una creencia a medida que llegan nuevos datos. La IA debe rastrear fluidamente estos cambios en la conversación.
La evaluación a menudo implica tareas que replican experimentos clásicos de "creencias falsas", adaptados a contextos adultos. El sistema podría ver que un usuario planea una acción basada en información obsoleta, probar si la IA interviene o note que el usuario está a punto de hacer un movimiento sin sentido. Los investigadores miden si las respuestas de la IA reflejan una suposición precisa sobre el malentendido del usuario, lo que lleva a ayudar o corregir suavemente. Otra medida es lo rápido que la IA reconfigura el modelo de creencias del usuario cuando ve que el usuario recibe evidencia contradictoria.
Al destacar en la comprensión de creencias falsas, una IA se vuelve más hábil en el razonamiento social robusto. Puede evitar confusión (como enviar al usuario a una ubicación incorrecta) o detectar que un usuario可能 no se dé cuenta de ciertas restricciones. En interacciones diarias o tareas colaborativas, esta capacidad sustenta un comportamiento de IA genuinamente útil: en lugar de actuar únicamente sobre hechos objetivos, la IA también supervisa estados mentales subjetivos, conectando las discrepancias antes de que causen conflicto o frustración.
Artificiologia.com Métricas del Barómetro E-AGI por David Vivancos