Résumé
- Explore les stratégies axées sur l'humain en matière d'IA et de données dans les organisations modernes.
- Présente les cinq C : compétence, collaboration, communication, créativité et conscience.
- Aborde l'impact de l'IA sur l'emploi, la société et la responsabilité éthique.
- Mise en avant de l'équilibre entre l'IA et les rôles humains, ainsi que d'une réglementation proactive.
Chapitres
Jenka, bienvenue dans Data Explode. Merci à tous ceux qui nous écoutent et nous regardent. Je m'appelle Ian et je suis chef analyste.
Euh, et je raconte l'histoire de la plateforme d'intelligence des données que nous sommes en train de développer. Mais nous n'en parlerons pas dans ce webinaire. Cela n'a absolument rien à voir avec notre webinaire, euh, sur notre technologie.
Cette réunion, cette série, les données explorées, il s'agit vraiment d'explorer les nouvelles tendances et idées qui émergent dans la communauté des données et de l'IA. Pour ce faire, nous invitons des invités, des auteurs, des praticiens, des leaders d'opinion. Et aujourd'hui, je suis avec Ang, Kai Fng, et Ang Kai, vous travaillez chez ThoughtWorks, vous êtes directeur de la stratégie en matière de données et d'IA chez ThoughtWorks.
Mm-hmm. Voulez-vous nous en dire un peu plus sur vous-même ? Je reviendrai ensuite plus en détail sur le sujet qui nous intéresse.
Oui, absolument. Je suis ravi d'être ici. Je vais me présenter rapidement.
Je travaille donc, comme vous l'avez mentionné, en tant que directeur de la stratégie en matière de données et d'IA chez ThoughtWorks, une société de conseil spécialisée dans les solutions technologiques et de données sur mesure. Et oui, je suis très passionné par l'aspect humain des données et de l'IA, c'est pourquoi j'ai écrit deux livres à ce sujet, intitulés Humanizing Data Strategy et Humanizing AI Strategy Topics , dont nous parlerons certainement lors de ce webinaire aujourd'hui. Et oui.
Hum, en attendant, je suis également très favorable à l'idée de rendre les données et l'IA plus amusantes et plus accessibles, n'est-ce pas ? J'utilise donc beaucoup de méthodes, comme mes talents musicaux, des blagues ou des mèmes, et ce genre de choses, pour rendre ce sujet moins effrayant, moins intimidant, plus inclusif et plus accessible, afin que tout le monde puisse participer à la conversation. Merci, Chen Kai.
Absolument. J'apprécie beaucoup votre musique et vos livres aussi, évidemment. Donc mon idée, la raison pour laquelle je voulais faire ce webinaire avec vous, mm-hmm.
C'est parce que, tout comme vous, j'ai suivi tout ce qui se passe, comme l'évolution de l'IA. Et on voit bien sûr que beaucoup de gens sont inquiets, voire effrayés, et tout le monde se demande si cela va remplacer leur travail, si cela va leur retirer les tâches qu'ils accomplissent.
Euh, est-ce que la société dans son ensemble deviendra plus difficile, euh, plus effrayante ? Euh, que se passerait-il ? Donc, beaucoup de, comme je le vois, beaucoup de pensées négatives, mais aussi très explicables et très, genre, très compréhensibles.
Hum, cependant, hum, en lisant votre livre, j'ai réfléchi, alors laissez-moi juste le mettre devant mon visage, je pense, euh, données, euh, stratégie d'IA, oui. Euh, euh, en lisant votre livre, euh, qui est votre deuxième livre, euh, Humanizing AI Strategy. Mm-hmm.
Je n'ai pas pu m'empêcher de penser que ce livre avait en quelque sorte renversé cette perspective. J'ai vu beaucoup de positivité et beaucoup de potentiel dans ce livre, et c'est vraiment ce que je veux... Dévoiler dans cette conversation avec vous, ce potentiel PO pour, pour, pour que les humains prennent l'initiative et définissent ce que nous voulons utiliser avec l'IA au lieu de laisser l'IA dicter en quelque sorte l'évolution de ce qui va se passer dans la société et d'avoir en quelque sorte ce sentiment d'être des spectateurs, c'est quelque chose d'inévitable.
Je ressens cela moi-même, évidemment, mais je pense que nous pourrions également prendre un moment pour essayer de changer un peu de perspective. J'ai donc préparé beaucoup de questions, mais avant de nous plonger dans celles-ci, laissez-moi juste lire le court passage de la conclusion. Euh, et ce n'est pas, ce n'est pas un spoiler.
Euh, je vous le promets. Euh, ça se passe comme ça, quelles décisions doivent rester humaines. Peu importe à quel point l'IA devient avancée, je ne parle pas des exigences réglementaires ou des limitations techniques.
Je fais référence aux choix qui façonnent notre identité en tant qu'espèce, à la décision de mettre au monde un nouvel être, au choix de mettre fin ou de prolonger les soins prodigués à quelqu'un. Nous aimons le jugement de culpabilité ou d'innocence lorsque la liberté est en jeu, l'étincelle d'inspiration qui crée quelque chose de véritablement nouveau. Il ne s'agit pas seulement de tâches à optimiser, mais d'expressions de l'humanité elle-même.
Oui. Tu écris vraiment bien, Kar, c'est un excellent passage. Merci.
Non, mais toi oui. Toi oui. Oui.
Vraiment. Je vous admire. Tout d'abord, cette introduction, qui ressemble à la conclusion de votre livre, mais dans cette conversation, je l'utilise comme une introduction, euh...
Euh, pour en venir à ma question, qu'est-ce qui vous a motivé à écrire ce livre ? Pourquoi un livre sur la stratégie d'humanisation de l'IA ? Tout à fait.
Donc, d'un côté, il y a une raison pratique à cela, car lorsque j'ai écrit mon premier livre, Humanizing Data Strategy, il y avait beaucoup de réflexions sur le lien qui existait déjà avec l'IA, n'est-ce pas ? Donc, comme nous le savons tous maintenant, les données et l'IA sont étroitement liées, mais au lieu d'essayer de tout intégrer dans le premier livre et de ne pas trop m'éloigner du cœur du sujet, qui était gestion des données la stratégie en matière de données, j'ai décidé de mettre ces réflexions de côté, pensant qu'elles pourraient faire l'objet d'un deuxième livre. Et c'est effectivement ce qui s'est passé.
Et, euh, c'est essentiellement pour cela que cela ressemble aussi à une suite du premier livre, n'est-ce pas ? Mais la raison principale pour laquelle je pense que c'était le bon moment pour le faire, et pourquoi je voulais le faire si rapidement, c'est parce que je l'ai publié pratiquement un an après mon premier livre, n'est-ce pas ? J'ai donc vraiment accéléré le processus parce que je voulais m'assurer que nous ne répétions pas les mêmes erreurs que par le passé, où nous n'étions pas centrés sur l'humain, en faisant de l'IA et en suivant simplement le battage médiatique autour de la technologie, sans réfléchir à ce que cela signifie réellement pour la société humaine et pour l'espèce humaine dans son ensemble.
Et c'est pourquoi je pense aussi que beaucoup de choses, oui, sont nouvelles et que les avancées technologiques sont plus importantes que jamais, mais en même temps, ce n'est pas la première fois que nous sommes confrontés à des technologies disruptives, n'est-ce pas ? Et souvent, nous avons dû apprendre à nos dépens dans le passé comment nous sommes allés dans une direction, trop dans une direction plutôt que dans l'autre, encore une fois, jusqu'à ce que nous trouvions le juste milieu. J'espère donc qu'en écrivant ce livre, avec la technologie de l'IA, nous pourrons au moins être un peu plus intentionnels et essayer de trouver plus rapidement ce juste milieu, sans avoir à apprendre à nos dépens.
Et je veux dire, il y a une chose que j'ai également mentionnée dans le livre, n'est-ce pas ? Étant donné que l'IA est entraînée avec des données produites par des humains, n'est-ce pas ? À partir de ce que les êtres humains ont fait, dit ou fait dans le passé, si vous ne faites pas également le tri, elle apprend également des mauvaises choses que nous avons faites en tant qu'humanité, n'est-ce pas ?
Et plus on remonte dans le temps, plus on a fait de mauvaises choses que l'on ne considère que maintenant comme mauvaises. Et à l'époque, on ne les considérait pas comme mauvaises, n'est-ce pas ? Oui.
Donc, si nous laissons l'IA apprendre sans aucun jugement, sans déterminer si c'est bon ou mauvais, cela pourrait amplifier les erreurs, n'est-ce pas ? Et elle le fait plus rapidement et à grande échelle. Cela signifie également que certaines des erreurs amplifiées pourraient être irrémédiables, n'est-ce pas ?
Nous devons donc faire preuve d'une grande prudence pour permettre à l'IA d'apprendre des bonnes choses que nous jugeons comme étant de bonnes actions et de bons résultats en tant qu'êtres humains, et essayer d'éviter les mauvaises choses. Ainsi, elle devient réellement ce que nous voulons qu'elle soit, à savoir une opportunité et un mécanisme d'autonomisation, et non quelque chose qui pourrait nous tuer à l'avenir. N'est-ce pas ?
Comme dans Terminator, par exemple. Oui. C'est en quelque sorte la logique et la motivation qui m'ont poussé à écrire ce livre.
Oui. Eh bien, merci. C'est très logique.
Hum, dans votre premier livre, vous avez développé un cadre mm-hmm. Nous en parlerons dans quelques questions, mais je voudrais déjà savoir maintenant, qu'est-ce que le cadre des cinq C ? À quoi servait-il à l'origine ?
Oui, donc les cinq C représentent essentiellement cinq aspects de ce que je considère comme l'approche centrée sur l'humain dans une stratégie de données ou d'IA. Ils signifient compétence, collaboration, communication, créativité et conscience. Et ce ne sont pas seulement des traits que nous, en tant qu'êtres humains, aimons cultiver ou que nous aimerions appliquer.
Je pense que nous n'y pensons tout simplement pas assez souvent au travail, et plus particulièrement dans le domaine des données et de l'IA. Le premier ouvrage consacré à la stratégie en matière de données avait pour objectif de rendre les données plus précieuses. Il s'agissait donc de répondre aux besoins des gens dans ces domaines, afin qu'ils utilisent les données de manière plus collaborative pour générer davantage de valeur dans le contexte de l'IA.
Aujourd'hui, l'approche est légèrement différente, car il ne s'agit plus d'utiliser davantage l'IA, celle-ci étant déjà omniprésente et tout le monde l'utilisant déjà dans une certaine mesure. Il s'agit plutôt de l'utiliser de manière plus intentionnelle et plus judicieuse. Les cinq C ont donc pris une tournure différente dans le deuxième ouvrage.
Et surtout quand on pense aux caractéristiques que j'ai mentionnées, les machines sont désormais capables de le faire ou de l'imiter aussi, n'est-ce pas ? Par exemple, la communication ne se limite plus à la communication entre humains, elle concerne également la communication entre humains et machines, entre machines et entre machines et humains, qui jouent désormais toutes un rôle. C'est un exemple de la manière dont les cinq C sont considérés sous un angle différent dans le domaine de l'IA.
Oui, absolument. Et, euh, nous pouvons entrer dans les détails techniques de cela si vous le souhaitez. Bien sûr.
Hum, mais, mais avant cela, hum, vous avez, euh, et je vais vous indiquer la page exacte, à la page 51, vous avez, vous avez cet ensemble de, euh, chapeaux que vous pouvez porter. Euh, j'aimerais passer en revue certains de ces, euh, rôles ou ces chapeaux que vous pouvez porter, euh, en tant qu'employé et peut-être, euh, essayer de les dévoiler. Comment pouvons-nous utiliser l'IA de manière intentionnelle lorsque nous, lorsque nous portons ces chapeaux, lorsque nous avons ces rôles et, comment pouvons-nous pousser, euh, pour en discuter dans, dans le livre, mais j'aimerais, j'aimerais le dévoiler.
Donc, si vous ne vous en souvenez pas, le premier est le thérapeute. Mm-hmm. Euh, et, euh, vous avez mentionné une situation, euh, où cela pourrait être, euh, résistant à l'IA, euh, au déploiement d'outils, euh, oui.
Euh, et où l'objectif serait de créer un sentiment de sécurité émotionnelle et de réduire la peur, mm-hmm. En faisant preuve d'empathie et en gérant le changement. Pourriez-vous nous en dire un peu plus ?
À quoi cela ressemblerait-il concrètement ? Exactement. Donc, je veux dire, peut-être juste revenir un peu en arrière sur le contexte qui m'a poussé à introduire ce type de casquettes à porter, c'est parce que, euh, lorsque les gens travaillent dans le domaine de l'IA aujourd'hui, ils doivent gérer de nombreux aspects différents, n'est-ce pas ?
Mm-hmm. Et souvent, on en arrive à un point où, sur le plan cognitif, on peut se sentir dépassé parce qu'on essaie d'atteindre plusieurs objectifs en même temps. Et ceux-ci peuvent être en conflit d'intérêts, n'est-ce pas ?
Une situation simple consiste à vouloir imposer et faire respecter des objectifs, tout en souhaitant innover. Si vous essayez de faire les deux en tant que seule et même personne, cela peut s'avérer très difficile, et vous devez gérer cela, n'est-ce pas ? Vous essayez d'identifier des garde-fous, mais en même temps, vous identifiez des opportunités, ce qui est très délicat pour une seule personne.
Je présente donc ces chapeaux essentiellement comme une façon de penser. Si vous portez un chapeau à un moment donné, portez-le consciemment, afin d'avoir un objectif clair et de le poursuivre jusqu'à ce que vous retiriez ce chapeau pour en mettre un autre. En effet, dans une situation différente, vous devrez peut-être agir à nouveau comme une personne différente, ou jouer un rôle différent avec ce chapeau en particulier.
Et donc, pour moi, le thérapeute est le stéréotype, lorsque vous remarquez qu'il y a une sorte de résistance à la transformation de l'IA, n'est-ce pas ? Mm-hmm. Qu'il y a certaines personnes qui, quoi qu'il arrive, ne veulent pas utiliser l'IA, elles se sentent menacées, elles peuvent avoir peur pour leur emploi, n'est-ce pas ?
Euh, ils n'y croient peut-être pas parce qu'ils ont eu de très mauvaises expériences avec des hallucinations, quelle qu'en soit la raison. Mais parfois, ils ont juste besoin de quelqu'un qui les écoute et qui comprenne réellement ce qu'ils vivent, sans présumer de leurs peurs et des raisons de leur résistance. Donc, quand vous adoptez cette position de thérapeute, vous vous lancez en quelque sorte dans une grande mission qui consiste simplement à écouter, n'est-ce pas ?
Essayez d'abord de comprendre avant de proposer une solution. Mais réfléchissez d'abord aux raisons pour lesquelles les gens résistent et identifiez les schémas qui se dégagent avant d'élaborer un plan qui soit intégré à l'outil lui-même ou à la communication autour de l'outil afin d'essayer de réduire cette résistance, mais en ciblant ce que vous savez être la raison pour laquelle vous êtes tous là. Oui, non, c'est tout à fait logique.
C'est tout à fait logique. Passons à la question suivante. Et qu'en est-il du développeur ?
Vous vous souvenez, vous pouvez nous parler du développeur ? Oui, bien sûr. Le développeur, c'est bien sûr l'expert technique type qui met en œuvre la première version d'un certain modèle d'IA dans une application spécifique, n'est-ce pas ?
Et l'idée est que quelqu'un doit démontrer techniquement que c'est faisable et quelle doit être sa fonctionnalité, n'est-ce pas ? Et les compétences nécessaires sont bien sûr les compétences techniques pour le coder et comprendre comment fonctionne l'apprentissage automatique, par exemple, etc. Et encore une fois, c'est fondamentalement différent de tous les autres, car en tant que développeur, vous partez du principe que vous connaissez déjà les exigences et ce que doit être la fonctionnalité.
Et dans cette tête, quand vous l'avez, vous passez en fait en mode flux et vous commencez à construire ce prototype aussi rapidement que possible pour ensuite avoir une preuve de concept que tout le monde peut voir, n'est-ce pas ? Donc, contrairement à l'image d'un développeur qui écoute et communique, vous vous concentrez en fait sur une tâche spécifique afin de pouvoir ensuite l'utiliser pour présenter d'autres éléments et disposer d'une base de discussion avec les parties prenantes, par exemple. Mm-hmm.
Mm-hmm. Prenons, par exemple, je veux prendre une tasse demain. Bien sûr.
Euh, prenons le visionnaire. Mm-hmm. En quoi consiste la tête visionnaire ?
Oui, donc le visionnaire est essentiellement celui qui, euh, pense à long terme, n'est-ce pas ? Il ne pense pas seulement à court terme, mais réfléchit à ce qui pourrait être possible à l'avenir et à ce qui pourrait être la bonne chose à adopter pour l'organisation, par exemple. N'est-ce pas ?
Et cela signifie qu'il pourrait s'agir d'un groupe de personnes qui se réunissent régulièrement pour réfléchir à ce à quoi pourrait ressembler l'avenir. Il pourrait s'agir d'un conseil, d'un comité directeur ou d'un organisme similaire, n'est-ce pas ? Mais ils peuvent essentiellement réfléchir à ce que représente l'entreprise ou à l'objectif de l'organisation, à ce à quoi pourrait ressembler le futur modèle commercial et à ce que pourrait être une version optimisée par l'IA, n'est-ce pas ?
Et ils fixeraient alors également des objectifs à long terme, n'est-ce pas ? En disant : « D'accord, pour l'instant, à court terme, nous faisons tout cela et nous optimisons notre productivité et apportons des changements progressifs, mais à long terme, nous voulons devenir une organisation très efficace, très axée sur l'IA, mais qui dispose de toutes ces opportunités et qui sait comment les exploiter. Et cela signifie également que vous avez besoin de personnes qui ont une réflexion stratégique, n'est-ce pas ?
Et qui savent réellement comment réfléchir davantage à l'avenir et qui ont cette capacité d'anticipation, n'est-ce pas ? Il s'agit essentiellement de réfléchir à l'identification des maladies et des tendances, puis d'examiner tout cela. Mais encore une fois, cela contraste pour moi avec le fait d'accomplir des choses à court terme, n'est-ce pas ?
Donc, si vous avez l'esprit visionnaire, vous ne pouvez pas en même temps vous demander comment faire pour que le prochain modèle soit enfin opérationnel demain et prenne vie. Mais vous devez changer de mode de pensée, n'est-ce pas ? Bon, laissons tout cela derrière nous pour l'instant, et pendant l'heure qui va suivre, je vais être visionnaire et réfléchir à la situation dans son ensemble.
C'est donc l'un des stéréotypes à prendre en compte à l'avenir. Oui. Oui.
Hum, pour finir, hum, j'aimerais également, euh, l'expertise dans le domaine, car c'est quelque chose qui est assez proche de, euh, de, de, de, de, comme, je suis très occupé par l'expertise dans le domaine, évidemment, dans le travail technologique que je fais. Alors, pourriez-vous nous parler de votre expertise dans ce domaine, et ensuite, je pourrai, euh, ensuite, nous pourrons avancer sur cette base ? Absolument.
Donc, l'expert du domaine est en quelque sorte le seul homologue, l'homologue humain d'un modèle d'IA, n'est-ce pas ? Parce que seul l'expert du domaine sait ce qui est correct et ce qui ne l'est pas, en gros. Et la raison pour laquelle c'est un homologue humain pour moi, c'est parce que beaucoup de connaissances, comme nous le savons, ne sont en fait pas documentées, mais elles sont institutionnelles et existent simplement dans la tête des gens et dans leur propre expérience.
Donc, l'expert dans ce domaine, en quelque sorte, est le gardien qui peut essentiellement juger si un modèle d'IA ou un agents IA, peu importe comment on l'appelle, fait le travail qu'on attend de lui, et s'il est évalué de la bonne manière pour obtenir un bon ou un mauvais résultat. On a besoin de cette expertise dans le domaine, mais il ne suffit pas de l'avoir une seule fois, n'est-ce pas ? Il est important qu'une fois que les entreprises se développent, cette expertise dans le domaine se développe également. Il faut disposer en permanence de cette expertise dans le domaine, c'est pourquoi je la relie étroitement à l'aspect humain, dans la partie de mon chapitre consacrée à la compétence, n'est-ce pas ?
Parce qu'il faut une certaine expertise pour être la bonne personne au bon moment, pour être au courant de tout, pour être capable de prendre des décisions. Donc, les compétences nécessaires et l'expertise acquise proviennent essentiellement de l'expertise commerciale, du domaine dans lequel vous travaillez, n'est-ce pas ? Si vous êtes un expert en marketing, vous avez bien sûr déjà beaucoup pratiqué le marketing vous-même, si vous êtes plutôt un expert en recherche et développement, vous avez récemment obtenu de bons résultats vous-même, etc.
Mais ce sont vraiment les personnes qui, selon moi, peuvent juger si l'IA va dans la bonne direction ou non. Oui, non, tout à fait d'accord. Tout à fait d'accord.
Et cela remonte à loin, n'est-ce pas ? Je veux dire, vous avez des articles datant des années 70 qui parlent des ingénieurs en connaissances et du rôle d'un expert dans un système expert, les bons vieux articles là-dessus. Exactement.
Euh, et même avant cela, évidemment, la connaissance du domaine était un domaine d'étude qui a été étudié, je suppose, tout au long de l'histoire, mais mm-hmm. Mais j'aimerais poser une question plus approfondie. Je voudrais savoir, par exemple, quels sont les commentaires que vous recevez de certains de vos clients, sans pouvoir évidemment les nommer, mais lorsque vous travaillez avec certains clients et qu'ils travaillent sur des stratégies d'IA, quelles sont leurs intentions ?
Que veulent-ils faire, et quelles sont les possibilités, euh, comment utilisez-vous votre livre pour, disons, les aider à surmonter les défis auxquels ils sont confrontés ? Oui. Euh, c'est une excellente question.
Euh, je dirais, et j'ai un léger parti pris parce que je suis consultant, que lorsque je parle à des clients, ils sont immédiatement en mode « problème », n'est-ce pas ? Parce que sinon, ils ne nous parleraient pas, mais ils veulent résoudre un problème, n'est-ce pas ? Et le problème le plus courant que je constate, c'est qu'ils n'ont pas vraiment d'objectif clair, n'est-ce pas ?
Parce que souvent, cet objectif est uniquement motivé par le fait que nous devons nous lancer dans l'IA parce que tout le monde le fait. Mais cela n'est pas une stratégie en soi, n'est-ce pas ? Non, non, non.
Et ainsi, cela devient une évidence, tout le monde le fait. Nous risquons de perdre notre avantage concurrentiel, alors essayons de le faire aussi, mais nous ne savons pas pourquoi, comment et où, n'est-ce pas ? Mais nous devons le faire, sinon nos actionnaires pourraient être mécontents, car ils attendent de nous que nous le fassions, nos clients attendent également de nous que nous le fassions, mais nous ne savons pas par où commencer.
C'est donc souvent là que nous commençons à élaborer cette stratégie d'IA. Et cela commence en fait par une vision des processus ou une vision organisationnelle des choses, n'est-ce pas ? Quel est donc votre objectif commercial global et votre objectif commercial ?
Supposons que, au cours des cinq prochaines années, vous souhaitiez réellement vous développer, et que vous souhaitiez donc investir et acquérir différentes entreprises, ou bien souhaitez-vous simplement devenir plus rentable ? Dans ce cas, vous souhaitez en réalité réduire vos coûts et vous devez améliorer votre efficacité, n'est-ce pas ? Ou bien vous avez peut-être d'autres objectifs.
À partir de là, nous pouvons ensuite décomposer progressivement cet objectif en idées spécifiques sur la manière dont l'IA peut support de manière progressive support , n'est-ce pas ? Par exemple, en augmentant la productivité de certains profils spécifiques au sein de l'organisation. Ils disposent en quelque sorte d'un assistant IA et accomplissent leurs tâches un peu plus rapidement, ce qui leur permet de gagner du temps. Ou bien, si cela ne les dérange pas et qu'ils en ont la capacité, ils peuvent aller encore plus loin, n'est-ce pas ?
Réimaginez donc un processus métier complet qui n'existe pas encore, mais dans le nouveau monde, nous pourrions le faire de cette manière, en utilisant largement le comportement des agents IA. Le tout nouveau processus métier pourrait donc ressembler à cela. Comment y parvenir ?
N'est-ce pas ? Il s'agit peut-être d'un plan d'action sur un ou deux ans, et nous devons nous transformer et gérer le changement dans cette direction. Mais c'est le genre de conversation que j'ai habituellement, n'est-ce pas ?
Lorsque nous définissons l'objectif, nous élaborons ensuite un plan pour l'atteindre en fixant un état cible que nous souhaitons atteindre, puis nous procédons étape par étape pour atteindre l'objectif de vente. Oh, non, cela me surprend beaucoup. Je suppose que c'est parce que je travaille pour un fournisseur de technologies, donc les questions qui nous sont posées sont très spécifiques et concernent les offres que nous proposons dans le domaine de l'IA, n'est-ce pas ?
Oui. Évidemment, euh, élargir et accélérer notre feuille de route dans toutes les dimensions possibles de l'IA, n'est-ce pas ? Oui.
Hum, les questions qui nous sont posées sont très spécifiques. Euh, pour moi, c'est assez surprenant d'entendre que, que, que les gens admettent aussi ouvertement qu'ils n'ont en fait aucune intention. Je veux dire, évidemment, cela semble tout à fait logique quand vous le dites, mais c'est aussi un peu douloureux d'entendre que les gens sont en fait, euh, comme, ils sont juste, ils sont tellement... Eh bien, il est tout à fait logique qu'ils fassent appel à des consultants parce qu'ils ont en quelque sorte besoin d'une stratégie.
Mais, mais, mais être aussi confus à ce sujet est quelque chose que je trouve, euh, eh bien, honnêtement, je dirais que c'est un peu surprenant, mais je peux tout à fait le comprendre maintenant que tu en parles. Donc, je suppose qu'au lieu de simplement se sentir, euh, perturbé, perturbé, dans un terme tellement galvaudé, n'est-ce pas ? Oui.
Moi, mais je suppose que les gens se sentent perturbés par l'IA. Euh, mais au lieu de, euh, au lieu de, euh, lutter contre cela, vous voyez plutôt la confusion comme le résultat de, euh, de, euh, de l'évolution de l'IA. Je veux dire, cela semble tout à fait logique.
Ce n'est pas que je sois contre, oui, je pense que la résistance est plutôt un fossé au sein des organisations, n'est-ce pas ? Et c'est généralement, euh, un sujet qui oppose les dirigeants aux employés sur le terrain, qui se produit souvent lorsque les hauts dirigeants et les décideurs adhèrent tous à l'idée de vouloir mettre en œuvre l'IA et s'attendent également à des améliorations significatives ou à tout type d'amélioration, n'est-ce pas ? Grâce à l'IA.
Hum, mais ensuite, les personnes sur le terrain qui connaissent la réalité de la situation, et pour de nombreuses raisons différentes, que ce soit d'un point de vue personnel ou en tant qu'experts en la matière, ne sont pas d'accord avec ce que semble être l'objectif, à savoir que nous devons désormais mettre en œuvre l'IA partout où nous le pouvons, soit parce qu'elles ne voient pas que cela soit possible, soit parce qu'elles ne voient pas l'intérêt de le faire. Et c'est là, je pense, que réside la résistance. Elle est généralement due à l'écart entre, euh, le haut et le bas, en gros, n'est-ce pas ?
Mm. Et en désaccord avec cela. Et encore une fois, c'est probablement plus du conseil, une vision très large, mais, euh, avec la gestion du changement, ils espèrent qu'un cabinet de conseil externe pourra simplement s'en occuper, n'est-ce pas ?
Comme mm-hmm. Les dirigeants ne veulent pas passer pour les méchants qui ont imposé un changement, alors ils font appel à un cabinet de conseil pour que ce soit eux qui jouent les méchants et imposent le changement. Mais ça ne marche pas, n'est-ce pas ?
Le changement doit venir de l'intérieur. Nous pouvons toujours l'aider et le faciliter. Euh, mais nous ne sommes pas ceux qui peuvent imposer un changement à une autre organisation, en gros.
Oui, tout à fait. Mais je vois aussi, personnellement, ThoughtWorks comme une entité à part entière, vous voyez ? Une société de conseil raffinée, n'est-ce pas ?
Mm-hmm. Ce n'est pas, ce n'est pas une société de conseil standard, euh, comme celles que l'on trouve, euh, ce ne sont pas des conseils génériques, n'est-ce pas ? Vous ajoutez des technologies au cœur, ce qui rend cela un peu différent.
Mais comment combler ce fossé ? Comment faire pour combler ce fossé ? Jenka ?
Je veux dire, évidemment, euh, ces conflits d'intérêts, euh, sont assez évidents, ils sont à la fois très explicites et mm-hmm. Je suppose aussi, euh, assez fermes, n'est-ce pas ? Ce n'est pas quelque chose que les gens prennent à la légère.
J'ai souvent l'impression que les équipes de direction veulent mettre en œuvre l'IA. Elles veulent être les premières à adopter l'IA, n'est-ce pas ? Oui.
Et, euh, j'imagine que dans de nombreuses entreprises, les gens résisteraient assez fortement à cette ambition, comme vous le dites. Absolument. N'est-ce pas ?
Oui. Alors, plus concrètement, comment utilisez-vous ces pépites dans votre livre et dans votre façon de travailler pour surmonter cet obstacle ? Oui.
Je veux dire, très spécifiquement, euh, dans la communication de mon cadre, n'est-ce pas ? Mm-hmm. J'ai une partie dédiée à la définition de la valeur de l'IA, n'est-ce pas ?
Mm-hmm. Et je pense que c'est l'un des points clés, car ce ne sont pas seulement les choses explicites qui comptent, n'est-ce pas ? Donc, dire qu'avec l'IA, nous allons tous être, euh, 30 % plus productifs à partir de maintenant.
Et cela en soi est déjà une déclaration très audacieuse à l'égard de tous ceux qui, sur le terrain, sont désormais censés l'utiliser. Mais eux, ceux qui ont vécu de nombreuses restructurations et entendu parler de licenciements, pensent immédiatement : « Oh, oh, cela signifie-t-il que nous allons perdre 30 % des effectifs ? Mon emploi est-il toujours sûr ? »
N'est-ce pas ? Et même si cela n'a pas été dit ouvertement, le fait de ne pas aborder la question des licenciements potentiels ou non, cela devient une hypothèse pour les personnes sur le terrain. Et cela conduit immédiatement à une résistance, n'est-ce pas ?
Alors pourquoi devrais-je support qui pourrait, euh, mettre en danger mon emploi actuel ? Et c'est pourquoi je pense que la communication est si importante, n'est-ce pas ? Lorsque vous voulez mettre en avant la valeur de l'IA, ne vous contentez pas d'évoquer ses aspects positifs, mais essayez également d'atténuer les associations négatives ou les attentes négatives que les gens pourraient avoir, et abordez-les de manière proactive, d'accord ?
Quand vous dites, euh, que nous allons être productifs, nous, et nous ne le sommes pas, nous n'allons pas licencier des gens, ou nous allons potentiellement licencier des gens, mais seulement autant, peu importe, n'est-ce pas ? Soyez un peu plus intentionnel à ce sujet pour avoir au moins des attentes claires sur ce qui se passera ensuite. Et même lorsque vous dites que vous voulez licencier des gens, il y a une autre façon de voir les choses, n'est-ce pas ?
On peut dire que les emplois que nous occupons tous actuellement vont évoluer, euh, et que les tâches vont être remplacées par l'IA, mais cela signifie que les emplois doivent changer, et nous devons, nous voulons accompagner tout le monde dans cette transition. Mais cela signifie que tout le monde doit être prêt à changer ses compétences et à être capable de se développer dans les neurosciences que nous avons. Euh, cela en soi est aussi une déclaration.
Je pense donc que c'est là que la résistance peut être considérablement réduite, simplement en communiquant davantage, de manière honnête, claire et intentionnelle. De manière proactive. Oui.
Non, non, tout à fait d'accord. Passons aux détails techniques. Je me disais aussi que ce n'était pas dans le chapitre sur la communication, mais plutôt dans celui sur la créativité, que vous abordiez le rôle des métadonnées , n'est-ce pas ? métadonnées .
Et comment vous vous êtes entraîné, où, où est-ce, C'est dans le chapitre sur la communication, C'est aussi dans le com et c'est un ajout à la communication. Parce que vous n'aviez pas ça dans le premier, euh, le premier livre, n'est-ce pas ? Exact.
Exact. Hum, alors, pouvons-nous développer un peu cela ? Qu'est-ce que, qu'est-ce que, qu'est-ce que le, qu'est-ce que le co, qu'est-ce que, genre, l'aspect technique du, euh, du C dans, dans le cadre des cinq C ?
Oui, tout à fait. Donc, je veux dire, la raison pour laquelle j'ai abordé ce sujet, c'est parce que nous attendons, euh, IA générative , et disons des chatbots ou tout type d'assistance IA, qu'ils nous aident en, euh, fondamentalement, euh, en mettant toutes les données et le contexte en place, n'est-ce pas ? Et en nous donnant les bons résultats lorsque nous les demandons, n'est-ce pas ?
Mm-hmm. Donc, la BI conversationnelle est la tendance actuelle, n'est-ce pas ? Mais cela signifie également qu'elle sait exactement, euh, quelle est la métrique que je demande, et où trouver exactement cette métrique pour me la montrer également.
Mm-hmm. Et c'est là que ça se complique quand on pense aux organisations et aux différents départements qui ont des informations contextuelles différentes à ce sujet, n'est-ce pas ? En général, si vous n'êtes pas parvenus à vous mettre d'accord sur certaines choses, euh, nous parlons tous des mêmes indicateurs, mais nous avons des définitions différentes en tête, ou bien nous parlons en fait du même indicateur, mais nous l'appelons différemment.
Toutes ces choses sont généralement celles qui font ou défont ce genre d'efforts. Donc, ce que je veux dire, c'est que je suis d'accord sur le fait que la sémantique est importante, que métadonnées importantes, et que, fondamentalement, créer des ontologies pour prouver le contexte direct est important, mais il faut d'abord que les humains s'accordent sur les choses, n'est-ce pas ? Car si nous, en tant qu'êtres humains, sommes toujours en désaccord les uns avec les autres et que nous n'avons pas résolu ce problème, nous ne devrions pas être surpris que l'IA soit également confuse, car nous sommes nous-mêmes confus en tant qu'organisation à ce sujet, n'est-ce pas ?
Donc, le but est que nous pouvons nous concentrer sur tout ce que nous voulons, mais cela commence par des conversations entre nous, car nous ne pouvons pas nous permettre que l'IA amplifie la confusion et les contradictions que nous avons en tant qu'êtres humains dans nos connaissances institutionnelles et dans notre communication. Oui. Oh, oui.
Tout à fait d'accord. Euh, et nous, nous travaillons avec des cadres qui, euh, je pense que c'est une architecture très intéressante, n'est-ce pas ? Parce qu'on peut vraiment aller de l'avant assez, euh, assez rapidement et de manière assez concrète, euh, dès maintenant avec l'IA pour ces cas précis.
Hum, donc si je, si je, je, j'aimerais savoir, c'est une grande question, mais genre, comment, comment, mm-hmm. J'espère que vous pourrez me répondre. D'accord.
Pas de pression. Pas de pression. Mais quel serait votre idéal, euh, l'avenir idéal des entreprises, en termes d'IA ?
Quoi, quoi, maintenant que nous avons ces super pouvoirs, peut-être un gros travail, n'est-ce pas ? Mm-hmm. Mais maintenant que nous avons l'IA et que nous pouvons la façonner, et que nous pouvons l'utiliser intentionnellement et ne pas être seulement, euh, les bénéficiaires de l'effet de l'IA, mais que nous pouvons réellement l'utiliser.
Euh, quelle serait votre vision, d'un point de vue stratégique, de la manière dont les entreprises fonctionneront à l'avenir avec l'IA ? D'accord. Si je devais résumer cela en une phrase plus simple, je dirais que nous avons une approche et un modèle opérationnel équilibrés, dans lesquels les êtres humains et l'IA collaborent de manière équilibrée afin d'atteindre efficacement et efficacement les objectifs d'une organisation.
Et cela signifie également que nous savons quelles tâches sont censées être confiées aux êtres humains, et qu'elles leur sont confiées pour une raison précise. Et que nous connaissons également les limites et les possibilités de l'IA. Et nous leur confions clairement une tâche l'IA est capable d'accomplir, et nous ne leur confions pas, euh, des tâches que nous ne sommes pas censés leur confier et qui pourraient, euh, être une question de vie ou de mort pour les élèves.
C'est vrai. Atterrir de manière très saturée. Donc, tout cela vient avec cette compréhension et cette réflexion presque comme un tout de ce qui ne sera que des tâches humaines.
Et nous les réservons aux êtres humains, et nous avons exactement les bonnes personnes pour accomplir ces tâches. Et disposer, donner, euh, des agents IA ou des applications IA à l'avenir, le contexte nécessaire et les moyens nécessaires pour accomplir leurs tâches et automatiser les choses et aider de la manière la plus efficace possible. Mais la raison pour laquelle je pense que cela prendra encore quelques années, c'est parce que nous sommes tous en mode expérimentation, n'est-ce pas ?
Je ne pense pas que quiconque se sente suffisamment sûr de lui pour savoir exactement quelles sont toutes les tâches qui incombent aux humains et toutes celles qui incombent à l'IA. Cela évolue également avec le temps. Mais nous tâtonnons tous en permanence, n'est-ce pas ?
Est-ce que cela devrait être automatisé ? Est-ce que cela devrait relever de l'intelligence artificielle ? Peut-être pas.
Et puis, nous ne faisons que faire des allers-retours. Il faudra donc du temps à l'espèce humaine aussi, je pense, pour trouver un jour ce juste milieu. Oui.
Oui. Absolument. Absolument.
L'une des choses que je vois, euh, que je considère comme un potentiel, encore une fois, en entrant un peu dans les détails du paysage informatique, c'est que, c'est que, euh, les applications dont nous disposons, nous avons tous, chaque entreprise a beaucoup d'applications, n'est-ce pas ? Et je vois, je vois deux perspectives. Je vois une perspective où, euh, le nombre d'applications va augmenter de manière significative grâce à l'IA.
Mm-hmm. Parce que vous pouvez créer très facilement des applications. Oui.
Mais ils vont apparaître, et peut-être aussi disparaître assez facilement, euh, encore une fois, c'est vrai. Euh, parce que vous n'en avez pas besoin. Je pense donc que nous sommes en train de passer d'un grand paradigme qui renouvelle le logiciel en tant que service à mm-hmm.
Au contraire, un logiciel. Ainsi, lorsque nous avons besoin de faire quelque chose, nous pouvons créer le progiciel technologique, si vous voulez, pour effectuer cette action, puis nous pouvons le retirer lorsque nous n'en avons plus besoin. Je vois donc un paysage informatique beaucoup plus dynamique, un paysage beaucoup plus changeant dans les entreprises.
J'espère que nous serons aussi bons, euh, euh, dans la création d'applications que dans leur retrait. C'est mon grand défi. Oui.
Je pense que c'est un vrai fouillis, euh, là. Et je suis sûr que métadonnées dans les technologies va devenir beaucoup plus facile. Si on regarde comment on peut décrire les données technologiques, mais aussi, à l'autre bout, rechercher des données, explorer des données, ça va être plus facile.
Mais la métadonnées globale métadonnées sera, je pense, beaucoup plus compliquée, car nous aurons un nombre énorme d'applications qui contiendront des données très critiques, et tout cela sera très dynamique. Donc, je vois un avenir, mais encore une fois, cela dépend beaucoup de la technologie, n'est-ce pas ? Euh, oui.
Vous, moi, moi, j'aime beaucoup ce que vous dites. Euh, c'est quelque chose que je peux tout à fait imaginer aussi. Mais j'ai aussi l'impression qu'il pourrait y avoir un point de convergence avec l'innovation en général dans le passé, n'est-ce pas ?
Parce qu'il y a une différence entre les modes d'expérimentation et le mode d'exécution et de production, n'est-ce pas ? Et nous savons tous qu'il y a, disons, des échecs, des tests, mais là, cela n'est pas encore utilisé pour une utilisateur plus large, pour une raison, parce que c'est encore comme, construire, tester et itérer, n'est-ce pas ? Et à un moment donné, vous décidez de dire, d'accord, maintenant, nous voulons le donner à la partie.
Nous avons un MVP, n'est-ce pas ? Nous voulons maintenant le donner au utilisateur clés que nous souhaitons avoir, et ils vont l'utiliser. Sur cette base, nous allons, dans un esprit agile, réitérer le processus.
Et quelque part entre les deux, il y a un choix à faire, à savoir à quoi ressemble la documentation et dans quelle mesure elle est intégrée au reste de l'architecture dont nous disposons également dans une organisation, n'est-ce pas ? Car je dirais, surtout en ce qui concerne votre argument, qu'avec l'IA, nous pouvons désormais expérimenter, construire et prototyper beaucoup plus rapidement, mais tous les prototypes ne doivent pas nécessairement être immédiatement étiquetés, documentés et connus dans métadonnées dont nous disposons, n'est-ce pas ? Mm-hmm.
Et peut-être faudrait-il définir clairement à partir de quand nous décidons tous que celui-ci restera un peu plus longtemps que tous les différents prototypes que nous avons eus par le passé.
Et seule cette partie doit ensuite passer par une sorte de liste de contrôle ou de contrôle qualité, peu importe comment vous l'appelez, pour devenir réellement cette partie, n'est-ce pas ? Ce qui signifie en fait revenir au thème central de notre, euh, webinaire, à savoir que nous, en tant qu'êtres humains, devons alors décider, n'est-ce pas, quels sont les bons critères pour juger si quelque chose est prêt à être utilisé pour la production par opposition à, euh, ce qui est encore au stade de l'expérimentation ? Parce que la frontière est très mince à l'ère de l'IA.
Nous devons donc être clairs, mais aussi flexibles pour voir comment nous pouvons faire avancer les choses. Oui. Je veux dire, c'est du moins ainsi que je vois les choses, euh, c'est comme le titre de votre livre, Humanizing AI Strategy.
Mm-hmm. Et je vois tellement, je vois tellement de gens dans les entreprises qui sont uniquement sur la défensive à propos de l'IA, comme les développeurs qui disent, les développeurs disent, eh bien, ça codera pour moi. Je ne veux pas, genre, les nouveaux développeurs ne viendront pas parce que ça codera pour moi.
Et comme, vous savez, le marketing dit, eh bien, nous n'avons pas besoin de créer du marketing. Parce que cela créera du marketing pour nous. Comme si beaucoup de gens étaient sur la défensive, euh, hum, oui.
Euh, état d'esprit, ce qui n'est pas faux. Je peux comprendre cela, et je le ressens vraiment. Je suis sûr que vous le ressentez aussi, comme si vous vous demandiez, en tant qu'auteur, s'il y aura un rôle pour quelqu'un comme moi, quelqu'un qui écrit des livres et qui a des opinions sur les choses et qui les couche par écrit.
Je me pose cette question de temps en temps. Je pense que j'ai encore au moins deux livres à écrire avant que tout n'explose. Mais, euh, mais, euh, juste un compte à rebours très subtil dans votre tête.
Je comprends. Oui. Oui, exactement.
Euh, oui. Mais, mais si nous prenons l'IA au sérieux, je pense que nous sommes dans une situation où nous devons nous demander : qu'est-ce que nous voulons faire avec l'IA ? Quel genre de Fonctionnalités mettre en œuvre ?
Comment voulons-nous travailler avec elle ? C'est ainsi que je vois les choses, comment humaniser une stratégie d'IA. Hum, c'est peut-être un peu à l'envers par rapport à votre livre.
Euh, mais, euh, non, en fait je ne pense pas. Je pense que c'est un peu comme si je prenais les limites pour dire que c'est un point de vue abordé dans votre livre, n'est-ce pas ? Euh, Absolument.
Je suis tout à fait d'accord. J'ajouterais même que cela vaut non seulement pour les auteurs, mais aussi pour les musiciens, n'est-ce pas ? Mm-hmm.
Bien sûr, je réfléchis beaucoup à la manière dont la musique générée par l'IA rivalise avec la musique originale créée par l'homme, n'est-ce pas ? Et c'est vraiment le cas, même aujourd'hui, quand on examine les outils musicaux basés sur l'IA, on a toujours l'impression qu'il leur manque quelque chose, leur âme. Je sais que cela peut sembler très subjectif, mais j'ai l'impression que, pour une raison quelconque, même si elle est très proche de la musique créée par l'homme, elle est un peu trop parfaite, n'est-ce pas ?
Mm-hmm. Et je me rends compte que ce sont vraiment les imperfections de la musique humaine qui la rendent si authentique, n'est-ce pas ? Parce que maintenant que vous avez une musique authentique, toutes les notes sont parfaites, toutes les voix chantent exactement les notes que vous vouliez chanter.
Tout le rythme est toujours parfaitement mathématique, clairement divisé, euh, divisé. Mais si vous écoutez un enregistrement Rolling Stones d'autrefois, la vitesse n'est pas la même que celle d'avant, par exemple, il y a quelques fausses notes à la guitare ici et là que nous avons simplement intégrées à enregistrement . Mais cela fait partie du charme, n'est-ce pas ?
De la musique créée par l'homme. J'espère donc qu'en utilisant cette analogie, cette originalité humaine a bien sûr toujours sa place, n'est-ce pas ? Et d'un point de vue dystopique, si tout travail créatif cesse et que toute la créativité provient uniquement de la génération d'IA, alors les modèles d'IA n'auront d'autre choix que d'apprendre à nouveau à partir du contenu généré par l'IA.
Et nous savons tous que apprentissage récursif apprentissage également à une dégradation de la qualité, n'est-ce pas ? Donc oui, cela rend la créativité humaine encore plus importante, car sinon, l'IA ne nous sera d'aucune aide. C'est donc mon espoir, du moins ma vision optimiste, que la créativité et l'originalité humaines restent très importantes, car sinon, le risque que l'IA ne fonctionne plus à l'avenir est également présent.
Oui, en effet. Non, non, je vois, euh, je vois de nombreux défis à relever, mais je vois aussi de nombreuses opportunités passionnantes. Oui, cela nécessitera, cela nécessitera une reconfiguration de, de nombreux, euh, postes.
Mm-hmm. Mais j'ai vu, j'ai vu des choses circuler avec lesquelles je ne suis pas d'accord. Et je peux vous donner quelques exemples.
Par exemple, sur Substack, je passe de plus en plus de temps sur Substack, euh, et j'ai vu une personne publier une citation de Bill Gates, mais elle était erronée. C'était une citation disant, euh, que Bill, Bill Gates aurait déclaré que l'IA allait remplacer les médecins et les enseignants, mais il a en fait un podcast intitulé Un Confuse Me, dans lequel il a très tôt dit exactement le contraire. Donc, la citation n'était pas une interprétation d'un journaliste qui mettait l'accent sur quelque chose d'une manière qui n'était clairement pas correcte.
Quelle était l'intention de Bill Gates lorsqu'il a dit cela ? En gros, il a dit très tôt dans la conversation avec le génie de la technologie, j'ai oublié son nom, que ce que nous verrions, c'est l'augmentation. Oui, c'est ça.
Le monde, le monde n'a pas assez de médecins. Le monde n'a pas assez d'enseignants. Oui.
Les enseignants et les médecins ne vont donc pas disparaître. Nous avons besoin de chacun d'entre eux, mais peut-être, peut-être pourrions-nous explorer, euh, élargir leurs forces pour atteindre une plus grande partie de l'humanité. Ne serait-ce pas formidable ?
Et je pense que c'est le genre de conversation, oui. Et c'est, je pense, le genre de conversation que nous devons avoir. Évidemment, très concrètement, les gens se retrouveront dans une situation où ils pourront craindre : « Oh, est-ce que cela va être pris en charge par l'IA ? »
Et je pense que nous devrions tous respecter cela, mais les besoins de l'humanité dans son ensemble et aussi dans des communautés et des sociétés très spécifiques, sont plus importants que l'offre disponible. Et c'est là que l'IA a un rôle fantastique à jouer. N'est-ce pas ?
Tout à fait.
Je suis tout à fait d'accord avec vous. Moi aussi, je veux dire, si on se considère comme des patients de médecins, par exemple, n'est-ce pas ? Et j'ai eu cette, euh, expérience mentale, euh, il y a quelques jours.
Par exemple, si j'avais le choix entre un médecin humain et un médecin robot, n'est-ce pas ? Ou un médecin ayant accès à une application d'IA, je pense que je pencherais sans hésiter pour le médecin disposant de l'application d'IA, car c'est le meilleur des deux mondes, n'est-ce pas ? Parce que je trouverais bizarre qu'un robot prenne une décision concernant ma vie ou ma mort, n'est-ce pas ?
Pour moi, c'est tout simplement étrange d'un point de vue éthique et technologique. Hum, de plus, un médecin qui ne dispose pas des informations les plus récentes et qui se fie peut-être uniquement à son intuition et à des informations obsolètes représente toujours un risque qui est simplement humain, hum, comportemental. Mais quelqu'un qui est fondamentalement connecté au monde actuel est capable de naviguer, euh, dans la technologie et a accès à l'information de la bonne manière.
Ça me semble être une bonne chose. Donc, euh, j'aime bien ce que vous avez dit, n'est-ce pas ? C'est une amélioration, n'est-ce pas ?
Il ne s'agit pas de remplacer, mais plutôt d'augmenter et d'amplifier les bonnes choses que les gens peuvent faire. Et j'espère que c'est ce que j'appelle une façon réaliste et optimiste de voir les choses, n'est-ce pas ? Il ne s'agit pas seulement de faire preuve d'optimisme, mais d'être réaliste et optimiste et de croire que de bonnes choses vont se produire là où elles se produisent.
Oui. Oui. C'est, c'est, c'est, chaque évolution technologique rencontrera, euh, des obstacles sur son chemin.
C'est inévitable. Absolument. Les gens se sentiront menacés, et je dois souligner que c'est quelque chose que nous devons tous respecter. Mais je pense que le potentiel positif de cette technologie l'emportera.
Et je pense que c'est notre devoir de formuler cela et d'être proactifs à cet égard. J'adopte une approche logicielle à cet égard. Oui.
Donc, ma façon de voir les choses, c'est que nous pouvons devenir beaucoup plus dynamiques. Comme s'il n'y avait rien de plus important dans un contexte d'entreprise. Donc, c'est tellement difficile de changer, de gérer, voire de découvrir, puis de gérer et de changer le paysage informatique d'une entreprise, disons, qui a plus de vingt ans.
Euh, comme si c'était une discipline en soi. Peut-être, peut-être verrons-nous plus d'élasticité, euh, oui. Dans le paysage de l'entreprise, euh, à cause de l'IA, n'est-ce pas ?
Je, j'ai tendance à penser que ce serait une très, très bonne chose. Mais c'est évidemment quelque chose qui est un peu prématuré pour l'instant. Oui.
Mais vous pouvez déjà, comme vous l'avez vu, Je ne sais pas si vous avez vu, par exemple, la sortie de la version 5.0, mais il y avait une démo d'une petite application linguistique, une application d'apprentissage des langues qui permettait de créer des quiz et des tests à choix multiples, et le niveau de perfectionnement est maintenant assez bon. Donc je ne pense pas, absolument. Je ne pense pas que ce soit, je ne pense pas que ce soit dans 10 ans que nous verrons des applications d'entreprise être lancées et arrêtées pour effectuer diverses tâches.
Et je pense que oui, absolument. Je pense que ça s'intègre bien, que ça s'intègre très bien avec, euh, avec ma gestion des données. Et, euh, bon, c'est juste moi qui divague.
J'aurais dû vous poser des questions. Non, absolument. En fait, pour compléter, je pense que ce qui m'a aidé personnellement cette année, c'est aussi d'être beaucoup plus adaptable à pratiquement toutes les situations dans lesquelles je me trouve, n'est-ce pas ?
Parce qu'il est tellement facile d'apprendre et d'acquérir des connaissances dans divers domaines, de combler ses lacunes et d'essayer de rechercher des informations dès maintenant et de les obtenir de manière personnalisée, selon ses préférences, je pense que cela a considérablement accéléré mon apprentissage cette année, mais en plus de simplement lire des articles, je peux désormais poser des questions en contexte et trouver les bonnes sources pour répondre à des questions spécifiques qui me permettent de digérer et de traiter autant de connaissances aujourd'hui, ce qui rend mon cerveau extrêmement heureux. Et aussi, pour revenir à votre remarque, si nous avons une organisation dont le paysage est élastique, je pense que le cerveau humain et les connaissances humaines vont devenir plus intuitifs et adaptés aux personnes, ce qui rendra les êtres humains plus élastiques dans leur comportement et leur état d'esprit à l'avenir, n'est-ce pas ? Les deux vont donc de pair, et j'aime beaucoup cela, n'est-ce pas ?
Si nous y parvenons, nous deviendrons tous plus flexibles et agiles et pourrons atteindre nos objectifs de manière beaucoup plus adaptative. Oui. Oui.
Oui, tout à fait. D'accord.
Je pense donc que nous allons, euh, commencer lentement à, euh, à, hum, clôturer la conversation. Si vous avez des questions, c'est le moment de, euh, de, euh, de, lever la main et de les poser, d'accord ? Euh, nous, nous avons oublié de le mentionner au début, n'est-ce pas ?
Mais nous avons une surprise spéciale pour toutes les personnes qui poseront des questions. Il y aura un exemplaire dédicacé du livre qui sera envoyé à un heureux gagnant qui sera, en gros, sélectionné après le webinaire. N'hésitez donc pas à poser des questions, et nous choisirons l'un d'entre vous pour recevoir un exemplaire dédicacé de mon livre, signé par moi-même bien sûr.
Et si, euh, nous pouvons également répondre à vos questions. Euh oh, c'est parti. Euh, bonjour, Ty.
Ravi de vous voir. Oui. Oh, vous vous connaissez aussi.
Oui, bien sûr. Oui. Oui.
Fantastique. Fantastique. Super.
Euh, eh bien, c'était juste un bonjour, mais, euh, vous pouvez aussi poser une question, euh, si, si, si vous en avez une. Et sinon, je pense que nous prendrons également les questions, euh, par e-mail après, donc vous pouvez me contacter sur LinkedIn. Euh, je pense que nous, nous devrions peut-être, euh, peut-être procéder de cette manière, Chanka.
Oui, bien sûr. Ça me va. Euh, oui, attendons une minute ou deux, mais, euh, d'accord.
Donc, euh, en gros, euh, voilà. Euh, oui, qui aurons-nous, euh, aurons-nous également à l'avenir des incitations pour les agents IA ? Oh, excellente question, tu veux y répondre ?
Oui, je vais essayer. Donc, dans le cas agents IA centraux, agents IA que les agents IA seraient récompensés pour avoir accompli certaines tâches, n'est-ce pas ? D'une certaine manière, j'ai l'impression que c'est souvent ainsi que fonctionne déjà l'IA, n'est-ce pas ?
Si l'on pense à apprentissage par renforcement, n'est-ce pas ? Alors, en gros, on récompense les bonnes actions et on punit les mauvaises. Donc, d'un point de vue technique, c'est déjà le cas, car c'est le mécanisme qui se cache derrière, dans un sens plus philosophique, peut-être, n'est-ce pas ?
Hum, la question est de savoir si les agents IA considèrent les incitations comme une motivation supplémentaire pour faire encore mieux qu'ils ne le font déjà, ce qui pourrait être un choix très intéressant. Hum, parce que, je veux dire, l'article que j'ai lu à ce sujet, euh, de Anthropic, hum, où ils ont essentiellement placé des agents IA dans un scénario où ils devaient se battre pour leur survie, apparemment ils ont commencé à mentir aux gens et à faire du chantage, n'est-ce pas ? C'est donc intéressant de voir que le mécanisme de survie des êtres humains a été transféré à un LLM pour qu'il se comporte de cette manière.
Cela soulève donc beaucoup de zones d'ombre, car si elles peuvent se comporter ainsi sous la contrainte, que se passera-t-il si vous commencez à les inciter ? Vont-elles vraiment s'améliorer ? Je n'ai pas de réponse à cette question, et pour être honnête, cela me fait un peu peur d'y penser.
Hum, c'est peut-être le bon moment pour te passer la parole, Ola, qu'en penses-tu ? Eh bien, je pense, je pense, hum, que la gestion de l'architecture Angen est quelque chose qui nécessitera évidemment, euh, une curation humaine. Personnellement, je ne crains pas les scénarios dystopiques dans lesquels des agents s'attaquent les uns les autres et l'humanité, et où l'intelligence artificielle est intégrée dans des robots et d'autres machines qui contrôlent l'humanité.
Je, je ne suis pas comme ça, tout fonctionne à l'électricité. On peut toujours débrancher le câble. Je n'ai pas, je n'ai pas vraiment peur de ça.
C'est un bon point. Euh, mais il existe également des agents spécifiques, euh, qui seront chargés, euh, de gérer d'autres agents, euh, précisément pour surveiller ce type de comportement. Donc je pense que je, je ne vois pas cela comme un problème, mais je reconnais que c'est une excellente question.
Oui. Bon, nous avons une autre question qui arrive, euh, de, ou Jane mm-hmm. Je peux peut-être la lire et ensuite vous pourrez y répondre.
Bien sûr. Bonjour, excellent webinaire. En ce qui concerne l'aspect humain de l'IA, je m'inquiète du manque d'application de certaines politiques et directives relatives à l'utilisation de l'IA, en pensant aux règles d'Isaac Asimov concernant les robots.
Mm. Je pense que nous sommes assez en retard ici, et par conséquent, l'humanité se sent menacée par, je pourrais partager votre opinion à ce sujet. C'est possible.
C'est une excellente question, très profonde. Euh, je pense que peut-être, d'un gouvernance , n'est-ce pas ? gouvernance de vue gouvernance de l'IA, l'expérience montre, euh, même dans gouvernance des données, que ces politiques et directives sur la manière de se comporter et ce qu'il ne faut pas faire ne sont généralement appliquées que lorsque quelque chose de grave se produit, n'est-ce pas ?
Et soit c'est motivé par une réglementation qui rend cela obligatoire, sinon vous risquez une amende, les gens vont en prison, soit vous vous retrouvez dans une situation délicate avec vos clients, n'est-ce pas ? Mais sinon, vous examinez toujours les choses lorsque quelque chose de mauvais se produit et vous voulez alors éviter que cela se reproduise une deuxième fois. Et maintenant, nous en arrivons à ce point intéressant où, euh, nous n'avons pas encore eu affaire à l'IA aussi longtemps qu'à d'autres technologies dans la mesure où nous le faisons actuellement.
Donc, euh, je comprends que nous ayons tous peur, mais rien de grave ni de mal n'est encore arrivé pour que ces règles soient créées de manière proactive et appliquées. Donc, d'une certaine manière, je pense que plus elles sont utilisées maintenant, plus il y aura de mauvaises choses qui arriveront. Et idéalement, ces directives, règles et politiques sont créées juste avant que cela ne prenne de l'ampleur et ne devienne à grande échelle.
Hum, et cela dit, je pense effectivement que les réglementations sont aussi une opportunité, n'est-ce pas ? Parce qu'elles sont censées nous amener du bon côté de l'histoire. Et je préfère être sauvé que désolé.
Et certains aspects, surtout lorsqu'il s'agit de faire des choix concernant des vies humaines, n'est-ce pas ? Donc, euh, les utiliser comme un moyen dans les organisations pour faire avancer ces politiques n'est jamais une mauvaise chose. Et vous pouvez ensuite aller plus loin, peut-être même utiliser cet élan de conformité pour ensuite mettre en œuvre ces politiques également.
Et Kai, nous serons fermés, euh, euh, à l'heure de la boutique. Il y a une autre question également, mais nous, j'ai pris une capture d'écran et vous pouvez... D'accord. Vous pouvez, vous pouvez, vous pouvez participer à la loterie, euh, après.
Euh, et euh, ce fut un plaisir de vous avoir avec nous, John Kai, euh, dans ce webinaire Data Explore, qui ne traite absolument pas d'action, mais plutôt des grands auteurs, penseurs et praticiens de la communauté des données et de l'IA. Merci beaucoup d'avoir pris le temps, merci beaucoup de m'avoir invité. Ce fut un réel plaisir.
Restez connecté, restez en contact. Prenez soin de vous.