Nous étudions des Modèles Décisionnels pour l’Interaction Homme-Robot basés sur des Processus Décisionnels Markoviens. Premièrement, nous proposons un modèle de décision augmenté du robot compagnon afin d’agir en tenant compte de l’intention estimée de l’être humain. Ce modèle traite le problème d’estimation de l’intention de l’être humain en observant ses actions. Nous avons proposé de simuler le comportement de l’être humain afin de construire une bibliothèque de valeurs de ses actions par rapport à ses intentions possibles. Ces valeurs sont intégrées dans un Processus Décisionnel Markovien Partiellement Observable (POMDP). Nous parlerons alors de POMDP augmenté. Deuxièmement, nous avons présenté un modèle de décision qui permet au robot en collaborat ion avec un être humain de choisir son comportement selon l’avancement de la réalisation de la tâche partagée. Ce modèle est basé sur un POMDP augmenté et permet au robot d’être coactif afin d’inciter l’action de l’humain pour réaliser la tâche en harmonie avec lui. Troisièmement, nous avons aussi défini un modèle unifié pour diffèrent types d’interaction homme-robot où le robot analyse les besoins de l’humain et agit en conséquence. Afin de contourner la complexité des POMDPs, le modèle unifié sépare le problème en deux partie, une première responsable d’estimer les intention de l’humain avec une chaîne de Markov Cachée (HMM) et une deuxième responsable de choisir le type d’interaction correspondant (collaboration, assistance, coopération) avec un Processus Décisionnel Markovien (MDP). F inalement, nous proposons un modèle qui alterne entre interaction verbale afin d’inférer les préférence de l’humain et interaction non-verbale où les préférences sont estimés en observant les actions de l’humain. Ce modèle permet de revenir à l’interaction verbale quand une ambiguïté dans les préférences est détectée.