Justificación de la métrica:
La atribución de creencias e intenciones es la capacidad de un sistema inteligente, como una IA o un robot humanoides, para inferir los estados mentales de otro agente, particularmente lo que ese agente cree (lo que puede o no coincidir con la realidad) y lo que el agente pretende hacer. En la cognición humana, esta habilidad está profundamente vinculada a la "Teoría de la Mente", donde entendemos que los demás tienen perspectivas, conocimientos y metas separados de los nuestros. La aplicamos cuando anticipamos el próximo movimiento de un amigo en un juego de mesa, adivinamos por qué alguien hizo una pregunta específica o nos damos cuenta de que un colega opera bajo una suposición equivocada sobre hechos compartidos.
Para una IA, la atribución de creencias implica modelar el conocimiento o la ignorancia del usuario sobre información clave y detectar cuándo las suposiciones del usuario se desvían de lo que la IA sabe como hecho. Por ejemplo, si el usuario no ha sido informado de que un determinado pasillo está cerrado por mantenimiento, la IA no debe esperar que él tenga en cuenta ese cierre en sus planes. Mientras tanto, la atribución de intenciones se trata de deducir las metas o motivaciones de un usuario o agente, por qué podrían estar realizando ciertas acciones, cuáles son los objetivos inmediatos que están persiguiendo y cómo eso podría dar forma a sus movimientos futuros. Al comprender esas intenciones subyacentes, la IA puede responder de manera más útil o incluso prevenir malentendidos.
Componentes principales:
Modelado del Estado del Conocimiento: El sistema mantiene un registro de los hechos que cada agente (usuario u otro) conoce o desconoce. Esto puede volverse intrincado si hay múltiples agentes, cada uno con información única.
Manejo de Creencias Falsas: A menudo, un agente puede creer algo falso o no creer algo que es verdadero. La IA reconoce tales discrepancias y puede optar por corregirlas o adaptar su enfoque en consecuencia.
Inferencia de Metas/Planificación: Más allá del conocimiento, el sistema discierne lo que un agente pretende lograr, como que un usuario quiera encontrar un restaurante rápidamente o que un compañero de trabajo quiera pedir prestada una herramienta.
Actualización Dinámica de Modelos: Los agentes adquieren nuevas creencias, descartan las antiguas o cambian de intenciones con el tiempo. La IA debe actualizar su representación interna para rastrear estos cambios con precisión.
Desafíos:
Señales Ambiguas: Las personas (o otros agentes) rara vez declaran abiertamente sus creencias o intenciones. Analizar las pistas sutiles, como preguntas repetidas, cambios de dirección o reacciones emocionales, es clave.
Intenciones Competitivas: Un usuario puede tener múltiples metas, a veces en conflicto. El sistema debe sopesar cuál es la principal en cada momento.
Observaciones Incompletas: La IA puede no ver todos los datos relevantes. Puede adivinar o formular hipótesis sobre el estado mental del usuario utilizando pistas parciales, refinando las hipótesis a medida que surge más evidencia.
Métodos de Evaluación:
El rendimiento en la atribución de creencias e intenciones se puede medir mediante tareas que dependan del modelado correcto de los estados mentales. Por ejemplo, si el usuario opera bajo una suposición falsa, ¿la IA lo corrige o acomoda el malentendido? O, si el plan del usuario es ineficiente dado el conocimiento de la IA, ¿la IA propone mejoras que se alinean con las metas reales del usuario?
Al atribuir creencias e intenciones con precisión, una IA puede adaptar orientación, reducir malentendidos y anticipar necesidades del usuario. Esta capacidad mejora fundamentalmente la colaboración, la empatía y la prevención de conflictos, clave para interacciones más fluidas y conscientes del contexto entre humanos y robots. Con el tiempo, los sistemas avanzados podrían perfeccionar los modelos de estados mentales, generando confianza y ofreciendo ayuda exactamente cuando las creencias o deseos no expresados de un agente lo indiquen.