☕La prochaine génération d’Assistants Personnels (Episode 1)

Les assistants personnels sont le futur de l’informatique. La nouvelle rupture après le mobile. Cependant, essayer de dupliquer le paradigme de l’App Store avec les assistants personnels est une erreur, voici pourquoi et comment régler ce problème.

Picard Assistants PersonnelsCapitaine Picard, connu pour sa fameuse commande vocale “Tea, Earl Grey, Hot” à l’ordinateur Star Trek.

 

J’adore les assistants intelligents: ils communiquent comme nous, sont ubiquitaires, et sont toujours là pour aider. Les assistants sont la manière la plus naturelle et efficace pour  communiquer. A ce titre, les bots constitueront indubitablement une composante importante  de notre futur.

 

En 2017, nous sommes encore dans la petite enfance des Assistants. Leurs conversations sont limitées à des arbres de dialogues déterminés, et concernant le test Turing… et bien, nous n’y sommes pas encore. Les assistants sont dotés d’oreilles performantes, d’assez belles voix mais de cerveaux très pauvres. Au mieux, ils ont celui d’un enfant de 3 ans.

 

Cela étant dit, quelques uns des meilleurs cerveaux (humains) dans le monde sont actuellement en train de travailler sur ce problème et nous devrions atteindre la Singularité avant 2050 pour ensuite nous amuser à nous remémorer comment les versions initiales basiques de la première génération  d’Assistants Personnels étaient en 2017.

 

Quelle est la prochaine étape pour les Assistants? Mon opinion est la suivante: se concentrer sur une meilleure façon de fournir des services vocaux et avec cela arrivera la réinvention du paradigme des compétences vocales.

AUJOURD’HUI: LES COMPÉTENCES VOCALES

De même que pour un smartphone nous pouvons installer des applications mobiles, il est possible d’enrichir les agents conversationnels du marché avec de nouveaux services appelés Compétences Vocales.

 

En général tout les agents sont fournis avec des Compétences Vocales Principales. Leur utilisation est alors assez directe. Jetons un oeil à quelques exemples avec un assistant que, pour rester neutre, je vais appeler Ordinateur.

 

  • Ordinateur, ajuste la température à 23°
  • Ordinateur, quel temps fait-il?
  • Ordinateur, joue un peu de French Touch Electro

 

Les cas d’usage deviennent plus intéressantes lorsqu’on en vient aux Compétences Vocales Tierces développées par des programmeurs indépendants ou des entreprises.
Leur utilisation est moins triviale:

 

  • Ordinateur, demande à la BNP Paribas combien j’ai dépensé dans les restaurants durant le mois dernier.
  • Ordinateur, demande à Uber où est mon conducteur.
  • Ordinateur, demande au Boursorama les estimations concernant les derniers stocks.
  • [le nom de l’Assistant], demandez [le nom de la compétence] de [ce que vous recherchez]

 

Donc, en tant qu’utilisateur, si je veux utiliser les Compétences Vocales Tierces développées, je dois:

 

  • Me souvenir du nom de chacune des compétences dont j’ai besoin
  • Formuler des minis requêtes à chacune de ces compétences
  • Me mémoriser les différentes informations et naviguer entre les compétences jusqu’à obtenir satisfaction

 

De plus, tout cela arrive dans des bulles de conversations fermées qui incapables de communiquer les unes avec les autres. Pour résumer, difficile aujourd’hui de réaliser une commande complexe en vocal.

 

Par exemple, voici comment aujourd’hui vous pouvez planifier un week-end avec un budget limité:

 

  • Ordinateur, demande à BNP Paribas le solde de mon compte Il vous reste 138€.
  • Ordinateur, quel temps fera-t-il à Marseille ce week-end?
  • Le temps sera ensoleillé avec une température maximum de…
  • Ordinateur, demande à Voyages SNCF un ticket Paris – Marseille pour ce vendredi
  • Le prochain train pour Marseille est à 98€, et il quitte Paris à 20h, voulez-vous réservez?
  • Ok réserve-le!
  • Ok c’est réservé!
  • …😓

 

Hum, 3 skills différentes utilisées pour réserver un ticket de train. Il y a certainement quelques améliorations à faire ici!

LE FUTUR: DES MICRO-COMPÉTENCES INTERCONNECTÉES

Cela ne serait-il pas mieux ainsi:

 

  • Ordinateur, quel temps fera-t-il à Marseille ce weekend?
  • Le temps sera ensoleillé avec une température maximum de…
  • Ok, top! Trouve-moi un ticket de train pas cher pour demain matin
  • Le prochain train pour Marseille est à 98€, il part de Paris à 20h, voulez-vous le réserver?
  • Combien me reste-t-il à la banque?
  • Il vous reste 138€
  • Ok, réserve-le!
  • C’est fait, et je viens juste de vous envoyer les tickets par email!
  • 😃

 

Le fait de permettre des conversations semblables à celles des humains va mener vers des expériences utilisateur plus naturelles et attractives, ce qui représente le Graal ultime que chaque designer recherche!

 

Pour faire en sorte que ces conversations naturelles existent, nous devons repenser la façon dont l’Assistant et en particulier les Compétences Vocales fonctionnent.
Vaste chantier, et voici déjà quelques suggestions pragmatiques pour les architectes d’Alexa, d’Assistant et de Cortana:

  • Lancement d’une fonctionnalité de Micro-Compétence disposant de moyens d’invocations implicites plus naturels (pas besoin de nom).
  • Mise à disposition d’un contexte partagé permettant une communication plus fluide entre les micro compétences

 

L’interface vocale est une interface invisible et très humaine, nous attendons donc des assistants personnels qu’ils s’adaptent à notre langage. Si transposer le modèle des applications mobiles au vocal est un raccourci pratique pour commencer, il est important de faire évoluer ce modèle vers quelque chose de plus naturel, et à ce titre, les micro-compétences représentent une amélioration significative dans la quête inéluctable vers l’Assistant (vraiment) Intelligent.

 

PS: A bientôt pour l’épisode 2! 😇