Degreed Experiments Archives - Degreed https://degreed.com/experience/fr/blog/tag/degreed-experiments/ The Learning and Upskilling Platform Wed, 26 Nov 2025 21:35:44 +0000 fr-FR hourly 1 https://wordpress.org/?v=6.9.4 Contenus générés par l’IA, coaching et données interactives https://degreed.com/experience/fr/blog/ai-generated-content-coaching-interactive-data/ Tue, 18 Nov 2025 23:14:20 +0000 https://degreed.com/experience/?p=87563 Pourquoi attendre de voir ce que sera la formation de demain quand on peut commencer à la créer dès aujourd’hui ? C’est précisément le rôle du laboratoire d’expérimentation IA de Degreed, et j’aimerais vous offrir un nouvel aperçu de cette vision. Voici les pistes que nous explorons en ce moment : 1. Contenus générés par l’IA Commençons […]

The post Contenus générés par l’IA, coaching et données interactives appeared first on Degreed.

]]>
Pourquoi attendre de voir ce que sera la formation de demain quand on peut commencer à la créer dès aujourd’hui ? C’est précisément le rôle du laboratoire d’expérimentation IA de Degreed, et j’aimerais vous offrir un nouvel aperçu de cette vision. Voici les pistes que nous explorons en ce moment :

  1. Contenus générés par l’IA
  2. Feedback personnalisé et mini-coachings
  3. Enquêtes, données et conversations de débrief
https://youtu.be/Ayk1YrRWCZo

1. Contenus générés par l’IA

Commençons par la création de contenus multimodaux avec l’IA. Nous explorons différentes façons de générer du contenu avec l’IA, ou d’utiliser vos documents existants ou vos fichiers SCORM (modèle de référence pour les objets de contenu partageables) comme point de départ. Partant de là, ces contenus peuvent être rapidement transformés en ressources de formation, quels que soient le format ou la longueur souhaités. Vous pouvez ensuite ajuster le contenu généré, avec des options multimédias pour ajouter du texte, des images, des éléments graphiques, des vidéos ou même des présentations.

C’est un moyen simple de produire des contenus de formation attractifs, variés et toujours pertinents. Et nous prévoyons un lancement début 2026.

2. Feedback personnalisé et mini-coachings

Degreed Maestro va au-delà de simples conversations avec l’IA : l’objectif est de créer des expériences de formation complètes et réellement efficaces. Nous travaillons donc sur des parcours IA multi-étapes combinant plusieurs formats, afin d’offrir à l’apprenant des pistes d’amélioration, notamment via un feedback personnalisé ou de mini séances de coaching.

Prenons un exemple : après avoir simulé un appel commercial avec Maestro, l’outil pourrait me proposer une évaluation accompagnée d’un retour détaillé sur ma prestation, mettant en avant mes points forts et les axes à renforcer. Il pourrait aussi me suggérer des mini séances de coaching ou me permettre de rejouer des passages précis pour travailler exactement ce dont j’ai besoin. 

3. Sondages, données et conversations de débrief

Nous testons également une nouvelle manière d’utiliser Maestro, avec des conversations de débrief naturelles pilotées par l’IA. Ce format stimule la réflexion, enrichit l’expérience de formation et fait émerger des informations utiles. 

Au lieu des enquêtes classiques qui entraînent souvent de la lassitude et des réponses incomplètes, Maestro peut glisser des questions intelligentes dans des échanges du quotidien ou analyser des conversations existantes, sans effort supplémentaire. Les personnes s’expriment souvent plus librement et de manière plus détaillée que dans une enquête classique, surtout lorsqu’elles savent que leurs réponses peuvent rester confidentielles. 

Lors d’une expérimentation, nous avons demandé aux équipes comment elles utilisent l’IA dans leurs missions, via une simple conversation avec Maestro. L’outil a ensuite regroupé les réponses et créé un tableau de bord en direct pour visualiser les résultats. Nous avons même pu interroger Maestro sur ces données pour faire émerger d’autres tendances. 

Cette approche permet d’établir facilement une première compréhension des compétences, besoins et expériences de chaque collaborateur, afin d’adapter ensuite la formation à chacun. Et la mesure d’impact réalisée ensuite fait apparaître une richesse d’informations impossible à obtenir avec les méthodes traditionnelles. Cela permet de capter en temps réel des signaux jusque-là imperceptibles. 

Suivez nos avancées

Imaginez les possibilités offertes par une compréhension aussi précise de vos collaborateurs, de leurs besoins et de l’impact de vos initiatives de formation. Nous serions ravis d’avoir votre avis au fil de nos explorations. Suivez-moi sur LinkedIn ou inscrivez-vous à la newsletter du laboratoire d’expérimentation IA de Degreed pour suivre nos derniers tests.

The post Contenus générés par l’IA, coaching et données interactives appeared first on Degreed.

]]>
Expériences Degreed : pour une formation pratique et adaptative https://degreed.com/experience/fr/blog/degreed-experiments-unlocking-adaptive-learning/ Wed, 16 Jul 2025 13:01:55 +0000 https://degreed.com/experience/?p=86771 En testant nos expériences learning adaptative pilotées par l’IA et en analysant le feedback, nous avons découvert comment personnaliser et équilibrer la progression.

The post Expériences Degreed : pour une formation pratique et adaptative appeared first on Degreed.

]]>
L’un des attraits majeurs de l’IA conversationnelle vocale de Degreed Maestro réside dans sa capacité à créer des expériences de formation bidirectionnelles, personnalisées et adaptatives. Mais nous savons également que l’assistance vocale n’est pas l’interface idéale pour toutes les tâches de formation.

En effet, l’IA vocale ne répond pas aux attentes dans les cas suivants :

  • Vous avez besoin de créer ou de saisir des informations complexes avec un niveau de fiabilité élevé.
  • Vous avez besoin de repères visuels.
  • Vous avez besoin de suffisamment de temps et d’espace pour résoudre des problèmes en profondeur.
  • Les tâches impliquent des éléments non vocaux, par exemple des tâches nécessitant de taper du code ou de naviguer au sein d’une interface logicielle.

Nous nous sommes donc demandé s’il était possible d’exploiter les points forts de l’assistance vocale, à savoir son interactivité et sa capacité d’adaptation, et les mettre en œuvre dans des contextes non vocaux.

Notre dernière expérience : des exercices de formation adaptative

La réponse nous a conduits à développer une approche innovante de la formation par la pratique. Le concept est simple : vous commencez par un objectif de formation, puis celui-ci est décomposé en exigences de progression ou en étapes à franchir.

Ensuite, l’IA génère des micro-tâches, l’une après l’autre, pour vous aider à comprendre et à mettre en pratique ce que vous avez appris. Vous recevez immédiatement un feedback personnalisé après chaque tentative et la prochaine tâche est ajustée dynamiquement, en fonction de votre progression et de votre compréhension. 

Premiers commentaires

  • « J’ai trouvé cela intuitif. J’ai apprécié de passer à la pratique après chaque explication et description de tâche. » 
  • « De manière générale, c’était fluide. Le feedback que je recevais sur mes réponses était utile. »

Diversifier les modalités 

Une interaction pratique était nécessaire. Nous avons commencé par la saisie de texte pour diverses tâches, puis avons pris en charge un éditeur de code pour les applications plus techniques.

Ensuite, nous avons intégré la webcam et les enregistrements d’écran. Ces derniers se sont révélés particulièrement précieux. Ils ont permis aux premiers testeurs de faire la démonstration de leurs compétences directement dans le contexte de leur travail ou d’applications spécifiques. 

Premiers commentaires

  • « J’ai apprécié de devoir non seulement écrire, mais aussi faire des enregistrements vocaux. Je pouvais ainsi consolider ce que j’apprenais. Cela a donné de très bons résultats. » 
  • « L’expérience était vraiment interactive et dynamique. »

Pour finir, nous avons ajouté des questions à choix multiples. En effet, il peut être lassant de devoir saisir du texte constamment. Ces questions constituaient donc une manière plus commode de confirmer sa bonne compréhension.

Parmi ces diverses modalités, l’IA peut sélectionner le format le plus approprié pour chaque tâche et séquencer l’ensemble de manière progressive, afin de réduire efficacement la charge mentale. Concrètement, cela signifie généralement que les utilisateurs commencent par des questions à choix multiple pour valider les bases, passent ensuite à une saisie de texte ou de code pour la mise en pratique des connaissances, puis terminent par un enregistrement via webcam ou par des enregistrements d’écran afin de démontrer la maîtrise acquise.

Créer des instructions sur mesure

L’un des principaux défis consistait à trouver le juste équilibre dans les instructions. Elles devaient être assez présentes pour éviter la frustration, sans pour autant surcharger l’utilisateur d’informations superflues. Notre solution actuelle offre différentes configurations possibles :

  • Conseils : disponibles sur demande
  • Questions et réponses alimentées par l’IA : pour des explications en temps réel
  • Niveau de détail des instructions : aucune, simples ou approfondies

Nous disposons également d’une icône « d’exploration » pour chaque tâche qui permet aux premiers testeurs d’approfondir certaines ressources de formation, et donc de recevoir plus de contexte ou d’explications selon leurs besoins. 

Faire la part des choses 

Nous avons fait face à de nombreux défis en cherchant à rendre le processus véritablement adaptatif. Lorsqu’il était trop ouvert, les apprenants ne savaient pas combien de temps ni quels efforts ils devaient investir. Nous avons opté pour une structure initiale combinée à un parcours adaptatif, tout en faisant en sorte que les progrès restent toujours visibles.

L’évaluation des progrès par rapport aux exigences représentait un autre obstacle, tout particulièrement lorsqu’il était nécessaire d’accomplir un nombre indéterminé de tâches et de multiplier les tentatives avant de parvenir à un niveau de maîtrise. Nous avons dû procéder à de nombreuses itérations pour atteindre le bon niveau d’adaptivité. Le système devait devenir plus simple dès que l’apprenant faisait face à une impasse, diviser les tâches en plusieurs étapes, prendre en compte les connaissances préalablement acquises, mais aussi fournir des exemples et instructions sans pour autant éliminer toute la difficulté.

Au-delà du prototype : l’aventure continue

L’expérimentation va continuer d’évoluer grâce aux commentaires recueillis auprès des premiers testeurs (ils étaient plus d’une cinquantaine et nous les remercions !). Les administrateurs et les curateurs vont à présent pouvoir commencer à définir des objectifs d’apprentissage, intégrer ces expériences adaptatives dans des parcours de formation plus larges, et bénéficier de statistiques et de rapports détaillés. Les premiers commentaires reçus nous ont montré que nous devions donner la possibilité d’importer une documentation ou des supports de formation existants. Cela permettra d’exploiter à la fois les bases de connaissances de l’organisation et le travail spécifique de chaque collaborateur, et ainsi de générer et de personnaliser automatiquement les exigences en matière de formation. 

Comme l’un de nos premiers testeurs en témoigne : « Cet outil est excellent. Il m’a ouvert les yeux sur la façon dont les entreprises peuvent l’exploiter avec leurs connaissances internes pour apporter une aide véritable… C’est un assistant en ligne qui est capable d’apporter des réponses en temps réel. »

En résumé, ce prototype s’est révélé un outil de formation à la fois flexible, interactif et efficace. Il présente l’avantage indéniable de fournir un feedback immédiat et sur mesure, sans augmenter la charge de travail des équipes. La progression adaptative rendue possible par l’IA maintient un niveau de difficulté toujours équilibré. Chaque apprenant peut choisir de recevoir plus ou moins d’instructions selon ses besoins. 

Premiers commentaires

  • « Pour les personnes qui veulent se former directement sur le terrain et qui ont besoin de comprendre les choses rapidement, oui, cet outil est véritablement précieux. »

Formation adaptative : et après ?

La réussite de ce prototype ouvre tout naturellement la voie à de nouvelles évolutions :

  • Évaluations adaptatives : repenser la manière de mesurer les compétences et connaissances
  • Soutien adaptatif et motivation : au-delà de l’adaptation des instructions et des tâches, personnaliser la façon d’accompagner et d’encourager les apprenants tout au long de leur parcours
  • Workflows adaptatifs : remplacer les enregistrements d’écran, pouvant présenter des failles en matière de protection des données, par des workflows générés par l’IA, pensés pour la pratique et sans risque lié aux données réelles 

Participer

Si vous aussi souhaitez tester ce prototype en avant-première, vous pouvez :

The post Expériences Degreed : pour une formation pratique et adaptative appeared first on Degreed.

]]>
L’IA conversationnelle vocale dans le domaine du L&D : coaching, jeux de rôle et plus encore https://degreed.com/experience/fr/blog/conversational-voice-ai-for-ld-coaching-role-playing-and-more/ https://degreed.com/experience/fr/blog/conversational-voice-ai-for-ld-coaching-role-playing-and-more/#respond Fri, 24 May 2024 21:37:45 +0000 https://degreed.com/experience/experience/?p=83969 * Veuillez noter que toutes les expériences sont en anglais. Dans cet article de blog, je vais vous parler du coach en leadership basé sur l’IA que nous sommes en train de tester, et j’ai pensé que vous voudrez peut-être l’essayer avant de poursuivre la lecture. Jetez-y un œil ! Il est loin d’être parfait, mais […]

The post L’IA conversationnelle vocale dans le domaine du L&D : coaching, jeux de rôle et plus encore appeared first on Degreed.

]]>
* Veuillez noter que toutes les expériences sont en anglais.

Dans cet article de blog, je vais vous parler du coach en leadership basé sur l’IA que nous sommes en train de tester, et j’ai pensé que vous voudrez peut-être l’essayer avant de poursuivre la lecture.

Jetez-y un œil ! Il est loin d’être parfait, mais plutôt amusant. Nous le mettons à votre disposition pendant quelques jours. (L’utilisation est à notre charge, alors merci de ne pas en abuser !)

Lorsque vous aurez fini de chatter, vous pourrez poursuivre la lecture de cet article. Fin de la parenthèse, revenons à nos moutons :

Oui, les robots peuvent parler.

Le 13  mai dernier, OpenAI a annoncé le lancement d’un nouveau mode conversationnel dans les prochaines semaines.

L’adoption généralisée de ces capacités améliorées fera des interactions verbales avec l’IA un moyen courant d’interagir avec la technologie. Quelles seront les conséquences pour le L&D ? Et comment en sommes-nous arrivés là ? Après tout, les assistants vocaux ne sont pas nouveaux. Alors pourquoi l’annonce a-t-elle suscité autant d’effervescence ?

Pour le savoir, nous avons mené quelques expériences et recueilli au passage l’avis de professionnels du L&D. Découvrons ensemble les résultats et les implications possibles. Il est de plus en plus évident que l’IA conversationnelle aura un impact significatif sur certains aspects clés du L&D.

Pour commencer, un petit point technologique

Les assistants vocaux tels que Siri (Apple) et Alexa (Amazon) existent depuis un certain temps. Ils reposent sur le traitement du langage naturel (NLP) pour interpréter les requêtes des utilisateurs et fournir des réponses prédéfinies. Ils peuvent par exemple vous donner la météo, mais au bout du compte, comme l’a déclaré le directeur général de Microsoft, Satya Nadella, en 2023, ils sont « stupides ». Ils n’ont pas les capacités dynamiques ou génératives d’un grand modèle de langage (LLM) comme celui utilisé par ChatGPT.

ChatGPT a changé la donne. En 2022, Whisper a été introduit en complément de ChatGPT-3.5 pour permettre aux utilisateurs de convertir l’audio en texte. Ils pouvaient donc formuler verbalement des requêtes à ChatGPT qui, d’un simple clic, était en mesure de lire les réponses correspondantes. C’est ainsi que l’audio et les commandes vocales sont entrés en jeu, mais la technologie n’était pas encore au point : impossible d’interrompre, d’être interrompu ou d’avoir une véritable conversation avec l’outil sans formuler d’instructions précises au préalable.

Des start-ups plus récentes ont ensuite déployé des interactions davantage conversationnelles en plus des LLM. Elles ont ainsi introduit les améliorations suivantes : la capacité de l’IA à détecter automatiquement les moments où elle doit prendre ou donner la parole et laisser l’utilisateur l’interrompre ou dialoguer librement, l’ajout d’interjections pour indiquer qu’elle écoute, et l’analyse des expressions vocales. Étant donné que ces expériences reposent sur un processus en plusieurs étapes (création de la réponse par un LLM comme ChatGPT-4, puis énonciation de la réponse par une autre technologie, à savoir un agent vocal), un certain temps de latence subsistait.

Ce mois-ci, OpenAI a annoncé que ChatGPT-4o, sa version la plus récente de chatbot basé sur l’IA générative, sera capable de comprendre et de répondre de manière conversationnelle. Plus besoin de faire appel à un agent vocal pour lire les réponses issues du LLM, c’est le LLM qui s’en chargera directement dorénavant. Si vous demandez à l’IA de « ralentir » ou de « se mettre dans la peau d’un personnage », elle le fera. En outre, elle sera naturellement expressive sur le plan vocal et comprendra les expressions vocales des utilisateurs. Et puisque tout cela sera intégré dans le même système, l’outil gagnera en rapidité.

À ce jour, un modèle textuel de GPT-4o est disponible. Les fonctionnalités vocales les plus avancées (y compris une voix controversée ressemblant à celle de Scarlett Johansson) n’ont toutefois pas encore été déployées, ce qui signifie que vous pouvez parler à GPT-4o, mais que si vous voulez l’interrompre, vous devez l’avertir au préalable (puisqu’il utilise toujours l’ancienne technologie). Vous pouvez cliquer ici si vous souhaitez en savoir plus.

Si vous vous connectez aujourd’hui, vous verrez peut-être un écran similaire à celui-ci lorsque vous utiliserez le mode vocal dans ChatGPT :

Que d’évolutions technologiques ! Parlons à présent de ce que cela implique pour le L&D.

Notre hypothèse de travail : des interactions plus rapides et plus authentiques pour la mise en pratique et la réflexion

Nous avions déjà envisagé la possibilité d’utiliser un outil de chat (via la saisie de texte) pour réaliser des exercices pratiques et des jeux de rôle. Ces interactions étaient amusantes au début, mais l’effort nécessaire pour rendre l’IA réaliste était trop important. Il n’était pas non plus très naturel de passer par le chat alors qu’on pouvait tout aussi bien avoir une véritable conversation (comme pour un appel téléphonique).

Nous voulions donc ajouter des fonctionnalités vocales pour tenter de rendre l’interaction plus réelle et faciliter l’engagement.

Expérience 1 : coach IA

Nous avons utilisé GPT-4 Turbo en tant que LLM, ajouté une couche conversationnelle, puis demandé à l’assistant de jouer le rôle d’un coach en leadership. Une étude a démontré que GPT-4 était l’outil le plus efficace pour les jeux de rôle (sur la base d’une évaluation limitée d’autres modèles).

La vidéo suivante présente les résultats de cette première expérience.

Bien qu’il y ait un petit temps de latence, le niveau d’échange conversationnel est assez bluffant. C’est d’ailleurs moi qui ai le plus de mal à m’exprimer.

J’ai partagé le lien avec des professionnels du L&D de mon réseau pour qu’ils puissent tester l’outil et me donner leur avis.

Dans l’ensemble, les retours étaient positifs :

  • « Naturel »
  • « Incroyable ! »
  • « Fabuleux ! »
  • « Réaliste »
  • « Fluide »
  • « Je pourrais l’utiliser tous les jours sans problème. »
  • Et voici la réaction de ma femme : « Trop bizarre. »

Commentaires sur le mode vocal :

  • L’échange conversationnel est très bon et le plus humain à ce jour.
  • Le mode vocal est propice à la réflexion : les gens ont moins tendance à s’autocritiquer puisque l’interaction est linéaire (ils ne peuvent pas revenir en arrière et faire des modifications) et qu’ils n’écrivent pas ce qu’ils disent. L’échange est donc plus rapide et exige moins d’efforts.
  • Lorsque j’ai demandé au coach de ralentir (pour pouvoir noter ses conseils), il n’a pas été en mesure de le faire.
  • Je savais qu’il s’agissait d’une IA, mais c’est devenu moins flagrant au fil de l’interaction.
  • L’intonation de la voix était naturelle et rendait la conversation fluide.
  • On constate un petit temps de latence, mais rien de très prononcé.

Commentaires sur l’utilité du coach IA :

  • Le coach a proposé des idées et des recommandations utiles.
  • Il a suscité une véritable réflexion et posé de bonnes questions.
  • Les utilisateurs ont trouvé l’approche et la méthodologie efficaces.
  • Le coach a tendance à répéter ce que l’utilisateur dit (mentionné à la fois comme un point positif et négatif).
  • Il a proposé un jeu de rôle en guise d’exercice pratique ; l’idée en soi était judicieuse, mais le jeu de rôle manquait de naturel.

Commentaires sur l’interface utilisateur :

  • Il faudrait pouvoir noter les recommandations formulées (mentionné plusieurs fois).
  • La façon d’entamer la conversation n’était pas très claire.
  • Il serait utile d’avoir un avatar pour avoir l’impression de parler à quelqu’un.
  • Il faudrait ajouter la possibilité de mettre l’échange en pause (pour pouvoir réfléchir ou s’absenter).
  • Il faudrait pouvoir définir dès le départ la durée de l’expérience.
  • Il serait utile d’avoir accès à une transcription de l’échange, à un résumé, aux prochaines étapes ou à d’autres ressources pour pouvoir les consulter ultérieurement.

Expérience 2 : jeu de rôle avec une IA capable de comprendre et d’exprimer des émotions

Dans cette expérience, nous voulions tester l’aptitude de l’IA à reconnaître et exprimer naturellement des émotions. Nous avons donc imaginé un jeu de rôle avec, d’un côté, un représentant de service client, et de l’autre, un client en colère.

En voici un court extrait :

Nous n’avons pas encore eu beaucoup de retours sur cette expérience, mais voici mes premières réactions. Je peux d’ores et déjà vous dire que l’échange a été efficace puisqu’il a réussi à me mettre mal à l’aise ! Je l’ai trouvé difficile et stressant. Le fait d’entendre la voix d’une personne contrariée a instillé une dose de réalisme à l’expérience.

Mais étant donné qu’il ne s’agissait que d’un jeu de rôle, je savais que je pouvais me défiler à tout moment si je me sentais dépassé par la situation. Je serais probablement plus enclin à persévérer si je devais rendre des comptes ou si j’étais évalué. J’ai également découvert que le service client n’était pas fait pour moi !

L’un de nos responsables commerciaux, qui a également testé l’interaction, a dit qu’il avait échangé avec le client virtuel pendant 15 minutes avant de parvenir à une résolution satisfaisante (il lui a même fallu changer de tactique à mi-chemin). Il a indiqué avoir ressenti le besoin de résoudre le problème pour « gagner la partie ». Nous sommes clairement très différents à ce niveau-là !

Nous avons également testé une interaction de coaching avec une IA capable de comprendre et d’exprimer des émotions. Le but était de voir si celle-ci pouvait détecter ce que je ressentais sans s’appuyer sur ce que je disais. Bien que l’IA ait remarquablement réussi l’exercice, je n’ai pas vraiment aimé l’expérience. J’ai ressenti un manque d’authenticité de la part de l’IA, mais c’est peut-être dû au fait que j’étais en mode « test ». L’IA avait également du mal à savoir à quel moment intervenir dans la conversation et n’arrêtait pas de m’interrompre.

Conclusion : l’analyse des émotions est probablement plus utile pour les interactions réelles entre humains.

Expérience 3 : gain de rapidité avec GPT-4o

Lorsque le mode textuel de GPT-4o a été déployé, nous avons décidé de tester à nouveau le coach IA que nous avions créé dans la première expérience. Puisque le mode textuel est censé être 50 % plus rapide que GPT-4 Turbo, nous avons essayé de voir s’il pouvait nous permettre de réduire le temps de latence.

Comme vous pouvez le constater dans la vidéo suivante, l’intégration de GPT-4o à notre coach IA a permis de le réduire un peu.

Conclusion : l’utilisation de GPT-4o permet de réduire le temps de latence de notre application de coaching IA de 3,6 secondes à 2,2 secondes en moyenne, ce qui rend la conversation beaucoup plus naturelle.

Prochaines étapes

Nous avons l’intention de continuer à explorer le mode vocal. Nous mettons actuellement en œuvre certaines des suggestions émises par les professionnels du L&D qui ont testé le coach IA (notamment l’ajout de transcriptions, une synthèse des actions à entreprendre, une meilleure interface utilisateur, des analyses et des options de feedback).

Nous continuerons à tester les nouveaux LLM. Nous explorerons également de nouveaux cas d’utilisation du mode vocal (par exemple, lorsque l’on est en déplacement, pour interagir pendant les réunions, ou encore pour faciliter les tâches administratives).

Voici un petit aperçu des travaux en cours sur les transcriptions en temps réel :

Implications pour le L&D

À mesure que la technologie grand public progresse, elle exerce une pression grandissante sur les expériences learning. Dans ce contexte, qu’implique l’essor de l’IA conversationnelle vocale pour les professionnels du L&D ?

  • L’IA vocale ne convient pas à toutes les situations, mais elle semble particulièrement efficace dans certains cas de figure (comme le développement des compétences). Il vous suffit d’identifier les cas les plus pertinents pour votre public et de trouver des solutions appropriées.
  • L’IA vocale permettra aux équipes L&D de proposer de meilleures expériences à plus de personnes et à moindre coût. Toutefois, elle risque aussi de renchérir la valeur des vraies interactions humaines.
  • De toute évidence, nos expériences interactives avec l’IA ne permettent pas d’offrir à elles-seules un coaching efficace, mais nous pensons qu’elles peuvent constituer un excellent complément aux programmes de formation des entreprises.
  • GPT-4o sera en mesure d’assumer la plupart des tâches complexes, mais les équipes L&D auront sans doute besoin d’un autre prestataire pour fournir des rapports, des analyses et des intégrations à d’autres processus de travail.

Pour toute question ou tout commentaire sur l’IA conversationnelle, vous pouvez m’envoyer un e-mail à l’adresse tblake@degreed.com

Merci de votre confiance !

The post L’IA conversationnelle vocale dans le domaine du L&D : coaching, jeux de rôle et plus encore appeared first on Degreed.

]]>
https://degreed.com/experience/fr/blog/conversational-voice-ai-for-ld-coaching-role-playing-and-more/feed/ 0
AI Agents for L&D: Innovating Across Your Ecosystem https://degreed.com/experience/fr/blog/ai-agents-for-ld-innovating-across-your-ecosystem/ https://degreed.com/experience/fr/blog/ai-agents-for-ld-innovating-across-your-ecosystem/#respond Tue, 10 Sep 2024 04:35:23 +0000 https://explore.local/2024/09/10/ai-agents-for-ld-innovating-across-your-ecosystem/ There’s always something new going on in AI, but “AI agents » is a macro trend I think everyone in business needs to be ready for—and especially anyone focused on impactful learning programs. “The next big breakthrough in AI is AI Agents,” notes Aaron Levie, CEO of Box. “This is when AI goes from being used […]

The post AI Agents for L&D: Innovating Across Your Ecosystem appeared first on Degreed.

]]>
There’s always something new going on in AI, but “AI agents » is a macro trend I think everyone in business needs to be ready for—and especially anyone focused on impactful learning programs.

“The next big breakthrough in AI is AI Agents,” notes Aaron Levie, CEO of Box. “This is when AI goes from being used as an assistant to chat with to using AI to accomplish complete tasks that a human might otherwise have to perform. This moves AI from being a ‘read-only’ operation to fundamentally a ‘read/write’ operation. Ultimately, this brings us much closer to the full promise of AI, in particular in the enterprise, where AI can begin to complete any part of a workflow.”

Here’s a closer look at what AI agents are, and what they mean for learning.

What are AI agents?

More than chatbots, AI agents are systems that have autonomy to make decisions and take action. Given a goal, they can make plans, execute tasks, and re-evaluate when necessary.

Let’s break it down with some examples of different levels of AI autonomy or “agentic” abilities. Similar to AI’s capabilities, naming conventions are all over the place. The following is a basic framework my team created to help us make sense of these capabilities. Level 1 is the most basic, and level 4 is the most advanced. Note: This is not meant to be definitive. In addition, categories and definitions can certainly bleed into each other.

Level 1: AI Tools 

You grab a tool from your toolbox. It does its job, and then you put it back. Similarly, AI tools are good at completing specific, narrow tasks that you define. These tools are seemingly everywhere these days, and they’re probably what most people have the most exposure to. 

AI tools include: 

At Degreed, we’re building AI tools such as Degreed AI Skill Review for analyzing your skills and other tools to help you maintain your learning content and enhance your learning ecosystem.

Level 2: AI Assistants

I don’t have an AI assistant, but I understand they’re great at augmenting your ability to get things done—like setting up meetings and completing other basic tasks. A good AI assistant knows your preferences and working style and can leverage multiple tools. This is where we see more autonomy in selecting the right tool to perform the right action.

AI assistants include:

Our Degreed AI Assistant helps you find content, build a Pathway, and complete tasks in Degreed.

Level 3: AI Copilots

More than an assistant, a copilot takes the controls alongside you. You work together, side by side, to do the job. While not fully independent to do the work by itself, an AI copilot teams up with you to amplify the capabilities of a human and a machine.

AI copilots include:

  • Github Copilot: for writing code
  • MultiOn: for navigating the web and interacting with websites alongside you

At Degreed, we’re exploring copilots that can help you build and manage learning programs and AI tutors that can look over your shoulder to give you real-time feedback as you work to improve your skills. 

Level 4: Multi-Agent Supervisors

At this level, AI helps manage other AI agents, each with specific capabilities. AI supervisors engage in planning, delegation of responsibilities, and evaluation of work by other AI agents to ensure they’re achieving the desired outcome. In these ways, supervisors exercise the most autonomy and have the most “agentic” of capabilities. It’s a level of AI we’re only beginning to see emerge.

Multi-agent supervisors include:

  • Crew AI: for building multi-agent systems
  • Strawberry: A yet-to-be-announced GPT-5 from OpenAI, codenamed Strawberry and rumored to have supervisor capabilities *

At Degreed, we’re exploring leveraging an AI supervisor to help build engaging learning experiences. This experimental Degreed Pathway supervisor coordinates amongst other agents to plan content, create content, find resources, extract quotes, do quality assurance, and ensure the Pathway is built to achieve its objectives. Next steps would be optimizing the experience based on real user activity.

What This All Means for L&D 

First, all this innovation holds the promise of quickly improving L&D workflows. With AI agents, the end goal is to do more than simply use AI to do what you currently do faster and cheaper. However, that’s a good place to start. Why? Because applying AI to what you currently do is the simplest and easiest way to understand AI technology, its capabilities, and its limitations.

Second, start planning on inventing entirely new ways of doing things. The ways that we craft learning experiences, evaluate skills, and navigate careers are all ripe for reimagination. Find technology partners who are ready to support your internal R&D efforts. If you’d like to get more involved with Degreed Experiments, an initiative I lead, please email me. You don’t need to be a Degreed client!

Third, keep people at the center. The best way to navigate the limitations of AI and the AI anxiety of your workforce is to help facilitate AI and employees working together. For example, a learning design copilot can help craft visuals and manage translations, allowing your learning designers to strategize and align experiences to employee’s needs. The best way to advocate for the people in your company, and keep them at the center, is to be a credible voice about the possibilities, and limitations, of AI and AI agents.

At Degreed, we want to help equip you to navigate these exciting developments. Get involved by checking out our AI experiments, learning more about navigating AI, or sending us your ideas for future experiments.

Join us as we unravel the future of AI agents and how we can get work done, together.

Find out more.

Degreed Experiments Blog Banner

* Technology is advancing quickly, and examples of AI tools and their capabilities can quickly become outdated.

The post AI Agents for L&D: Innovating Across Your Ecosystem appeared first on Degreed.

]]>
https://degreed.com/experience/fr/blog/ai-agents-for-ld-innovating-across-your-ecosystem/feed/ 0
Internal Talent Mobility: Using AI to Find Overlooked Skills https://degreed.com/experience/fr/blog/internal-talent-mobility-using-ai-to-find-overlooked-skills/ https://degreed.com/experience/fr/blog/internal-talent-mobility-using-ai-to-find-overlooked-skills/#respond Wed, 24 Jul 2024 17:15:57 +0000 https://explore.local/2024/07/24/internal-talent-mobility-using-ai-to-find-overlooked-skills/ Something interesting happens when you start working at a company. People start to see you as your job title. It becomes difficult for them to imagine you doing anything other than your current role. Your previous experiences and your wider skill set don’t factor much during the day to day, so those considerations quickly become […]

The post Internal Talent Mobility: Using AI to Find Overlooked Skills appeared first on Degreed.

]]>
Something interesting happens when you start working at a company. People start to see you as your job title. It becomes difficult for them to imagine you doing anything other than your current role. Your previous experiences and your wider skill set don’t factor much during the day to day, so those considerations quickly become a non-factor.

This problematic perception becomes one of the biggest reasons why company after company overlooks hidden skills that could be incredibly useful for enabling internal talent mobility. It’s also one of the reasons why so many business leaders are excited about skills-based talent practices. Skills-based strategies help organizations see past job titles, resumes, and credentials. They help organizations benefit from what their employees can actually do. But good data is key.

A skill-based approach can backfire if you don’t have good skill data. Incomplete data often contributes to the overlooking of quality internal talent. Why? They simply don’t have comprehensive skill profiles.

The Experiment: Strengthening Internal Talent Mobility Using AI

We hypothesized that AI can use inference to help fill skill data gaps and broaden a search for talent.

To set up our experiment, we created skill profiles (with 12 or more skills) for six employees: Taylor, a product manager (Hey, that’s me!); Adrian, a back-end developer; Jessica, a client success manager; Anne, a sales director; Quyen, a technical support specialist; and Stephen, a data analyst.

We then used AI to build a list of required skills for a new internal data analyst opportunity.

Today, most talent systems are looking for exact skill matches to recommend employees for new opportunities. This is what the talent pool looks like when an exact skill match for the data analyst position is performed.

Basically, Stephen (who is already a data analyst) looks to be the only person remotely qualified. This result is neither surprising nor insightful. And in today’s fast moving market, companies, managers, and employees need unexpected, innovative, and flexible solutions to fill skill gaps internally. 

But, using AI, we asked the system to also highlight people who have adjacent skills. After all, just because someone doesn’t explicitly have a skill listed on a skill profile doesn’t mean that person doesn’t actually have that skill. And voila! This is what our talent pool looks like when adjacent skills (using AI inference) are considered. 

Including adjacent skills creates an 89% increase in potential skill matches. We now see that Taylor (a product manager) and Jessica (client success manager) have adjacent skills that would help them qualify for this new position. Now we’re getting the more insightful and unexpected solutions that companies, managers, and employees need. 

Let’s take it one step further. We know that skills aren’t static. Increasingly, we’ll all need to upskill to fill skill gaps. So let’s use AI inference to highlight stretch skills that someone could upskill into.

Look at all that color. Accounting for development opportunities provides an even richer talent pool, resulting in 179% more potential matches than our original analysis. Quyen (technical support specialist) was not initially on our radar for this role, but we can now see that she has a path to upskill herself.

AI inference isn’t the end-all-be-all, but it’s a good place to start.

Are there limits to this use case? Sure. Just because AI infers that someone may have a skill doesn’t make it true. But it does help broaden our search, and it doesn’t exclude potentially qualified candidates right from the get-go. And this information can lead to further analysis—through follow up conversations or skill assessments—providing hiring teams with a wealth of potential options for internal talent mobility before otherwise defaulting to an external search.

Turn the talent you have into the talent you need.

Considering how challenging it can be to hire good talent, or to develop it from scratch, there’s no reason why learning leaders shouldn’t be amplifying the internal talent they already have. And if there are still some gaps at your organization, Degreed can help to turn the talent you have into the talent you need. 

Take a look at Verizon. When COVID lockdowns began, the wireless network operator, a Degreed client, temporarily closed nearly 70% of its retail stores essentially overnight. In doing so, Verizon looked at the skills of over 20,000 workers and redeployed them to serve other critical business needs. Through training, daily on-the-job coaching, and rapid reskilling, the company avoided layoffs and met the needs of customers faster and more efficiently. 

Exness, a Degreed client and Cyprus-based fintech company, found similar success clarifying job roles by mapping skills to them, which in turn enabled the organization to embrace a focused, adaptive approach to employee development. Skill gaps are clearly identified, learning needs are proactively defined, and upskilling happens, contributing to measurable business outcomes like improved performance and innovation.

Find out more. 

Thanks for following along with our experiments! You can check them all out, and be sure to watch for new experiments coming soon. (For example, would you like to see if AI can help estimate the time and cost for any employee to upskill to a certain level? Let’s find out!)

Degreed Experiments Blog Banner

The post Internal Talent Mobility: Using AI to Find Overlooked Skills appeared first on Degreed.

]]>
https://degreed.com/experience/fr/blog/internal-talent-mobility-using-ai-to-find-overlooked-skills/feed/ 0
Degreed Experiments with Emerging Technologies https://degreed.com/experience/fr/blog/degreed-experiments-emerging-technologies/ https://degreed.com/experience/fr/blog/degreed-experiments-emerging-technologies/#respond Thu, 18 Apr 2024 18:19:18 +0000 https://explore.local/2024/04/18/degreed-experiments-emerging-technologies/ This is Degreed Experiments: a blog series exploring the sustainability of emerging technologies for the challenges in L&D.

The post Degreed Experiments with Emerging Technologies appeared first on Degreed.

]]>
Honestly, I don’t care much for change. I’d rather be at Blockbuster on a Friday night than sifting through Netflix recommendations. But I do care a lot about how we learn at work. So, for the past year, my mind has been racing thinking about the impact of all these emerging technologies for L&D. What will survive past the hype? How do we use it to make a real impact and not just create cheap imitations? 

We’ve been testing and discussing these topics inside and outside of Degreed. But, we’d like to open up the conversation. 

That’s why we’re excited to announce a new initiative, Degreed Experiments. This will be a blog series (and hopefully a two-way conversation) geared toward exploring the suitability of emerging technologies for the challenges in L&D. Through hands-on prototyping, we’ll share with you what works, what doesn’t, and new questions we encounter along the way. Through it all you’ll become a more informed, and credible partner who can help your business evaluate emerging technologies and opportunities. 

Why Degreed Experiments?

We’ve been building learning products for a long time, but the way we build products is changing. With the incorporation of AI, product experiences are less predictable and deterministic. You don’t really know what an AI-powered product will be like until you can play around with it.

Combine that unpredictability with the future of work and the evolving role of L&D and we have a dynamic that requires rapid experimentation and iteration.

Now, we see all the AI chatter and don’t want to contribute to the noise. We’re determined to give you actual data and examples that can only come from trial and error.

What You Can Expect: Hands-on Prototypes

First, we’re builders. That means there will be more showing as we demo hands-on prototypes, critically evaluate the outputs, and let you judge the results for yourself.

In future posts, we’ll deep dive into emerging technology use cases like:

Upgrading Practice Scenarios from Chat to Live-speech Conversations

Our Hypothesis: Practice scenarios are a powerful way to develop skills in context. Having the option to not only practice in a chat-based scenario but also in a live conversation (like you’re really talking to someone) will make the scenario feel more real. This could be more effective for use cases like sales calls, interviewing, and executive coaching.

Upgrading practice scenarios form chat to live-speech conversations in learning technology

Skill Inference from Employee Data

Our Hypothesis: Leveraging existing employee data and activity can help you quickly identify skill strengths and gaps resulting in better data coverage, more up-to-date profiles, and should be good enough for some use cases (though not all). We also expect the details on how this is done to matter a lot.

Skill inference from employee data in learning technologies

Dynamic Taxonomies for Skills, Tasks, or Other Requirements

Our Hypothesis: Organizing skills, people, and work quickly and flexibly (versus rigid and traditional taxonomies) can speed up building learning experiences, identifying talent, and mapping career paths.

Dynamic taxonomies for skills, tasks, and other requirements in emerging technologies

Smart, Mobile Nudges and Content Delivery

Our Hypothesis: Lots of your existing content could be reformatted into mobile-friendly nudges to better optimize engagement and retention. The micro-learning concept has been overplayed, but we think there are new ways to approach this with emerging technologies.

Smart, mobile nudges and content delivery prototypes

Identifying Internal Talent

Our Hypothesis: We need dynamic ways to match people to internal opportunities. This may include looking at someone’s skills, experience, working relationships, or other key attributes. Those doing the evaluation should be able to change the criteria used for matching as needed to find the best fit.

Identifying internal talent with emerging technologies

Building Personalized Learning Experiences

Our Hypothesis: Learning is more than content. We can design and personalize experiences that are optimized for closing performance gaps.

Building personalized learning experiences prototypes

Side-by-side Model Evaluation

Our Hypothesis: Comparing models and methodologies side-by-side will give us the ability to identify the best fit for any use case.

Side-by-side model evaluation in learning technology

Reviews of the Latest Research on Emerging Technologies

AI is advancing rapidly and chaotically. We’re going to explore the latest technical research and evaluate its impact on L&D. 

Recent and dramatic advancements in emerging technologies will open new use cases for learning and development. 

  • Multimodal: Images, audio, video, and avatars will open new doors (and traps) for content creation and delivery.
  • Evolution of RAG (Retrieval Augmented Generation): The ability to search, summarize, or ask questions from your own source documents are huge use cases. We’re seeing rapid advancements in RAG methodologies, longer context windows, methods for extending memory, and new architectures (beyond transformers used in models like ChatGPT) that will empower knowledge management.
RAG Retrieval Augmented Generation in Learning Technologies
  • Agents: As AI models get more similar and competitive, the next frontier will be the use of agents that can perform chains of actions (including planning and evaluating the work done) using various models. This will open the door for even more automation.
An overview of methods for LLM-agent planning in learning technologies
  • Screen vision: Researchers are exploring AI assistants that can see and act on what’s on a screen, regardless of whether any formal integration between applications exists. This could transform on-the-job training and performance support.
  • Wearables: New AI-wearables are just emerging but could inspire more ways to support deskless workers.

In addition, non-obvious but important limitations exist. While these can be managed or mitigated, it’s still crucial to understand them.

  • Factuality: AI models still struggle with factuality when creating long-form content and providing accurate citations.
  • Long-form reasoning: While AI models do a great job at finding self-contained pieces of information, they struggle to reason across long contexts.
  • Following instructions: Even the most advanced models still don’t fully follow instructions a third of the time.
  • Unpredictability: Not all models are well suited to all tasks. Outputs from models change, and the models themselves are frequently updated in unpredictable ways.
  • Cost: As usage scales, cost will be an important factor. Vendors will look to make tradeoffs between capabilities and cost or pass the cost onto clients.

Finally, there are more strategic implications.

  • Are you prepared to help navigate career mobility when AI disrupts the viability or capacity of certain roles?
  • What functionality should you get from new vendors vs. waiting for it to be incorporated into your existing applications?
  • How will new regulations and audits affect which capabilities you can take advantage of?
  • Which data will AI have access to, what is the data quality, and will it increase visibility to sensitive or misclassified data?
  • Will there be responsibilities that AI displaces from L&D?
  • What is required to build AI literacy in your organization?

See, I told you there’d be lots of questions. So, follow along and we’ll see if we can answer them together.

What’s In It For You

Hopefully, a lot. We’ll let you judge for yourself the suitability of the emerging technologies for your use cases and organization. We’ll make it easy to stay up to date with all the advancements. We’ll help you become a better partner for your business as your colleagues ask similar questions internally. And hopefully we can even have some fun along the way!

How to Get Involved

Send us ideas or questions. We’d love to hear what’s on your mind. Email tblake@degreed.com.

Volunteer to take our experiments for a test run. We’ll pick a few partners to help test and provide feedback on each prototype. Let us know which topic has piqued your interest by emailing tblake@degreed.com

Follow us on LinkedIn to catch our next posts, which will be coming soon.

Thanks, all! We’re excited to see what we learn together.

Watch an on-demand session with AI Guru, Noelle Russell, discussing the future of AI.

The post Degreed Experiments with Emerging Technologies appeared first on Degreed.

]]>
https://degreed.com/experience/fr/blog/degreed-experiments-emerging-technologies/feed/ 0