#161 Brivael Le Pogam, cofondateur et CTO d’Argil. De la R&D deeptech à la création d’un produit AI grand public.
SaaS ConnectionApril 19, 2025x
166
01:18:0571.5 MB

#161 Brivael Le Pogam, cofondateur et CTO d’Argil. De la R&D deeptech à la création d’un produit AI grand public.

Pour l’épisode de cette semaine, je reçois Brivael Le Pogam, cofondateur et CTO de Argil.

Argil, c’est une plateforme qui permet à n’importe qui de générer des vidéos avec des avatars réalistes grâce à l’intelligence artificielle. Une technologie complexe rendue accessible à travers un éditeur vidéo complet.

Dans cet épisode, on revient sur le parcours de Brivael : ses débuts dans la Silicon Valley, sa première boîte avec son associé Laodice Ménard, et la genèse d’Argil à partir d’un projet de knowledge management puis d’un orchestrateur de workflows IA.

Brivael nous raconte comment ils ont su pivoter vers la création d’un modèle d’avatar vidéo, les choix techniques qu’ils ont dû faire, les challenges du fine-tuning, et la stratégie qui leur a permis de générer rapidement des millions de vues... et d’attirer l’attention de Marc Andreessen ! On parle aussi de leur passage chez Y Combinator et des arbitrages entre produit, modèle, growth et sales.

Vous pouvez suivre Brivael sur LinkedIn.

Bonne écoute !


Mentionnés pendant l’épisode :


Pour soutenir SaaS Connection en 1 minute⏱ (et 2 secondes) :

  1. Abonnez-vous à SaaS Connection sur votre plateforme préférée pour ne rater aucun épisode 👆 (2 secondes)
  2. Envoyez cet épisode à 2 de vos contacts intéressés par le SaaS 📣 (30 secondes)
  3. Mettez-nous 5 étoiles sur Apple Podcast et Spotify ⭐️⭐️⭐️⭐️⭐️ (30 secondes)

Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

[00:00:10] Bonjour à tous et bienvenue sur SaaS Connection, le podcast dédié au SaaS, Software as a Service. Je suis Alex Delivet, entrepreneur et fondateur de Collect, un outil SaaS qui permet de récupérer des documents et des informations auprès de ses clients. Grâce à ce podcast, je pars à la rencontre des acteurs de l'écosystème SaaS francophone pour qu'ils me partagent leurs connaissances, leurs meilleures pratiques et leurs conseils actionnables afin que je puisse les mettre en œuvre sur mon propre SaaS et que vous puissiez en faire de mieux.

[00:00:38] Nous parlerons ensemble de marketing, de vente, de fidélisation client, de produits et parfois même un peu de technique. Sur ce, bonne écoute ! Bonjour à toutes et à tous et bienvenue pour ce nouvel épisode de SaaS Connection. Aujourd'hui, j'ai le plaisir de recevoir Brivael Le Pogam qui est cofondateur et CEO d'Argil. Salut Brivael ! CTO ! CTO ! Exactement !

[00:01:07] Et d'habitude souvent je dis « Oh, t'es bien CEO ! » Là, je l'ai pas dit donc… Tu vois ça… J'ai pas fait de coup d'état encore ! Salut ! Je suis ravi de te recevoir. Merci de m'accueillir. Avec grand plaisir, on a essayé de… Je crois qu'on a… Ça a été le delay d'un petit mois. Du coup, maintenant je comprends mieux. Tu m'as dit que c'était une urgence. Donc ouais, c'était une urgence tech. Il y avait les serveurs qui étaient en train de… On venait de lancer un modèle et on s'est pris une énorme charge. Donc c'était un peu compliqué de venir.

[00:01:37] Ok. Je comprends mieux. Est-ce que pour commencer l'épisode, je peux te proposer de nous… de te présenter et de nous expliquer ce que vous faites chez Argil ? Avec plaisir. Bah du coup, moi Brivael, ça fait une dizaine d'années que je baile dans le milieu des startups. J'avais eu la chance de passer un an dans la Silicon Valley en 2012. Donc quand j'étais rentré en France en 2013, j'avais cherché un peu des boîtes avec un « for scale technique ». Et du coup, j'ai eu la chance de bosser pour Teads qui était la première boîte de Luxuberant.

[00:02:07] À l'époque, j'avais pas mal fité avec Laudis Menard qui était son bras droit et le premier stagiaire de Teads, avec qui on a montré une première boîte ensemble en 2016. Ensuite, enfin une boîte… Vous faisiez quoi ? On était tous les deux gamers de base. Donc on s'était dit ok, on va prendre un peu projet coup de cœur sur un truc qui nous anime. Et on avait fait un outil… La première idée, c'était de faire Discord. On est arrivé… On a commencé à bosser dessus et Discord est arrivé en même temps. Donc on s'est dit le produit est tellement parfait qu'ils vont avoir un boulevard.

[00:02:36] Donc à l'époque, on avait pivoté vers un outil de matching de joueurs. C'était un peu une sorte de Tinder pour les gamers connectés aux API des jeux. Donc on récupérait la data et on matchait les joueurs entre eux. Donc on a fait une belle croissance, on avait fait un beau produit, mais c'était assez dur de trouver un business model sur ce genre de play parce qu'on était extrêmement dépendants des API des jeux et elles ne sont pas très friandes de laisser accès à leur data. Donc au bout d'un an, un an et demi, on a préféré arrêter la boîte plutôt de continuer à rester dans les coûts irrécupérables.

[00:03:05] Moi, je suis reparté bosser bord des boîtes tech et AI pendant 4-5 ans. Et du coup, il y a 2-3 ans, on s'est recommité avec l'audisse. Et donc là, on bosse sur… Lui, il faisait quoi ? Donc du coup, il est CEO aujourd'hui ? Ouais. Et il faisait quoi, lui, en attendant ? Alors, lui, il a fait une… Premièrement, il a écrit un roman de 700 pages de science-fiction.

[00:03:34] Du coup, ce qu'il connaît pas mal avec ce qu'on fait aujourd'hui. Il a réalisé un film, il a fait une masterclass sur les levées de fonds parce qu'il avait bossé avec notre Business Angel. Donc il a fait beaucoup de contenu et assez… toujours autour de la vidéo. Donc c'est pour ça qu'il a à la fois ce background… Quand il est parti de CID, il était Head of Product Marketing. Il a vu la boîte grandir de 0 à 500. Donc avec toutes les étapes de passer de 0 à 50, avec les challenges 0 to 1, etc.

[00:04:01] Et il a aussi cette fibre créative qui est assez rare finalement chez les fans de la tech. C'est soit t'es ingénieur, soit t'es un profil école de commerce. Mais ce qui fait qu'aujourd'hui, on a un ADN un peu… pas très commun dans la tech. Dans le sens où on a un peu cette fibre… Ce qui joue beaucoup par rapport à ce qu'on fait aujourd'hui. Oui, mais c'est bien en même temps d'avoir de la singularité dans la tech. Je trouve même que ça manque aujourd'hui quand on prend un…

[00:04:30] Qui est le digne successeur de Steve Jobs aujourd'hui ? Qui avait cette capacité à avoir un peu une vision d'artiste et de connecter les artistes. Et même quand… Dans sa biographie, il décrit la période de Macintosh où il réunissait des hackers de génie. Donc très très fort en computer science. Et à la fois des artistes. Et ça s'est ressenti tout au long d'Apple. Et je trouve qu'aujourd'hui, mine de rien, il y a très peu de boîtes qui incarnent ça. C'est que c'est souvent du marketing très froid. De l'ingénieur…

[00:04:59] Des produits d'ingénieurs faits par des ingénieurs, pensés par des ingénieurs. Et on n'a pas cet équivalent aujourd'hui d'Apple. Donc de quelqu'un qui arrive à faire le bridge entre le côté technologique et artistique. Là où Steve Jobs était très bon. Ouais, je vois ce que tu veux dire. Après… Après, t'es bien placé pour le savoir. Je trouve que dans les IA génératives, mais plus orientées justement sur du visuel, tu vois. T'as quand même des gens qui sont assez solides derrière. Ouais, bien sûr.

[00:05:29] Qui ont fait des choses… Enfin… Tu vois, moi je trouve que je sais pas, OpenAI c'est un peu le nouvel Apple, tu vois, de ce point de vue-là. C'est vrai, mais je… Je pense qu'après, c'est… Des Steve Jobs, il y en a un tous les 50 ans. C'est sans doute lié à son histoire. Du fait qu'il est drop-toe, qu'il ait fait de la calligraphie. Il avait fait des… Il a eu à un moment dans sa vie une période très créative où il est un peu sorti des carcans de la technologie. Et ça aujourd'hui dans les… Il y a un rapport à la drogue.

[00:05:59] Non mais qui joue… Exactement, mais il y a une sortie de Steve Jobs sur Bill Gates. Il y a une interview… D'ailleurs, je la conseille à tes auditeurs qui s'appelle The Lost Interview de Steve Jobs, qui est une interview de lui au milieu des années 90. Et il y a une phrase… Il y a une sortie de Steve Jobs sur Microsoft où il dit… La phrase exacte, c'est « J'ai aucun problème avec le succès de Microsoft. Ils méritent leur succès, leur exécution est très bonne. » Ce qui me déroge profondément, c'est qu'ils n'ont aucun goût. Ils n'ont absolument aucun goût.

[00:06:29] Et ils réinsistent sur le fait que la construction de Microsoft, d'un point de vue branding, design, etc., ça n'a jamais été le sujet de Bill Gates et ça s'est ressenti pendant 20 ans dans tous les produits Microsoft. Évidemment, aujourd'hui, ils ont des designers, mais il n'y a pas une patte, une brand Microsoft. Quand on voit un produit Apple, on sait que c'est du Apple. Quand on voit un produit Microsoft, que ce soit un produit B2B, les produits consumers, c'est toujours différent

[00:06:58] et tu as l'impression qu'il y a une… C'est un nouveau silo de designers à chaque fois. Et du coup, il avait connecté ça à son adolescence et à sa vingtaine hippie où il a pris beaucoup de LSD et il avait fait une sortie en disant que Bill Gates ça aurait servi de prendre un peu du LSD pendant sa jeunesse pour lui un peu ouvrir l'esprit et développer sa sensibilité à l'art. Donc, je n'irais pas conseiller aux gens de prendre du LSD pour s'ouvrir, mais c'est vrai que c'était assez commun dans la Silicon Valley dans les années 70.

[00:07:28] J'essayerais de retrouver le lien vers cette interview. Elle est exceptionnelle. C'est masterclass sur masterclass cette interview. Donc, du coup, tu as ce parcours avec différentes expériences. Une première expérience entrepreneuriale avec ton co-fondateur d'aujourd'hui. Qu'est-ce que vous faites Charger ?

[00:07:55] Et par où vous avez commencé ? Donc, pour le contexte, on a créé la boîte il y a deux ans. Deux ans et trois mois. Donc, on a créé la structure en janvier, en décembre 2022. Pour le contexte, quand on a créé la boîte, ça faisait déjà huit mois qu'on bossait sur un projet qui s'appelait Snippets, qui était un outil de knowledge management AI-powered. Donc, on était rentré dans les...

[00:08:24] Moi, je me rappelle, je faisais déjà des vidéos sur l'API d'OpenAI à 6-12 mois avant que ChatGPT arrive. Et c'était déjà assez impressionnant. Je me rappelle, il y avait des espèces de samples. Il y en avait un qui m'avait marqué, qui s'appelait CreateStudyNotes. Donc, c'était... On balançait des notes et ça faisait un résumé. Et c'était assez fou à l'époque. Donc, c'était basé sur la version antérieure de GPT 3.5 qui s'appelait DaVinci via API. Et on avait créé un outil de knowledge management

[00:08:51] qui permettait à n'importe qui de pouvoir synthétiser du contenu, que ce soit textuel, vidéo, en le highlightant. Et on prenait ces highlights-là pour faire un résumé. Et on a buildé ça pendant huit mois. Et en octobre 2022, c'était pas encore ChatGPT. Il y a eu toute la hype autour de mid-journée, stable diffusion, etc. Et en fait, on s'est retrouvé un peu... On sentait qu'il y avait quelque chose qui était en train de tourner. Il y avait beaucoup...

[00:09:20] Tout le monde ressentait qu'il se passait quelque chose. Et nous, ce qu'on s'était dit à l'époque, donc on n'avait pas levé des fonds, etc. Donc, on a fait un outil... On a fait une app DIA Avatar. Et cette app DIA Avatar, on s'est rendu compte qu'il n'y avait pas de tooling, etc. Et ce qui est arrivé à notre premier pitch, qui était le Zapier de la Gen.E.I. Donc, le Argile. Initialement, c'était ça. Quand tu dis Zapier de la Gen.E.I., c'est-à-dire... Attends, on rembobine un peu même.

[00:09:49] Parce que je vais même trop vite déjà. Donc, générateur d'Avatar en mode réalistique ou... Donc, t'es plutôt comme... Je crois qu'il y en a quelques-uns qui existent. D'ailleurs, toujours, je crois qu'ils font même encore pas mal de revenus. Je pense à un indie hacker qui s'appelle Peter Levert qui fait ça. Headshot... Photo AI. Photo AI. Et après, je sais qu'il y a un de ses copains concurrents qui fait Headshot Pro ou un truc comme ça. C'est-à-dire Danny Posman. Ouais, c'est ça. Ouais.

[00:10:19] C'est lui qui a trigger ce projet-là. On l'avait vu arriver sur... Parce que c'est lui qui a pris le fine tuning de Stable Diffusion en octobre 2022, qui a fait une app assez bête et méchante au départ. C'est... On upload 15 photos et on reçoit par e-mail des photos de soi en Superman. Et... Tu ne mets pas d'interface, genre limite, tu fais à la manoeuvre... Exactement. Bah, à la... Level SEO 2. Je lance un projet en 5 heures. Je vois si ça... Je balance des spaghettis contre le mur. Je vois si ça colle. Ouais. Et après, j'améliore le produit. Et...

[00:10:49] Il incarne ça et son... Je crois que la première journée, il fait 1500 dollars de CA. Deuxième journée, 4000. Et ça part en exponentiel. Et je crois qu'il est monté à... Il a dû faire 150 000 dollars en l'espace d'une semaine. Donc, c'était assez fou. Bon, sachant qu'il est une distrib de ouf. Ouais. Il a un edge... Quoi qu'il lance, dans tous les cas, je pense qu'il fait monter n'importe quel projet à 5, 10 cas de MRR. Parce que là, avec Cursor, il y a quelques semaines, il a lancé un jeu d'arcade. Un jeu. Qui est complètement broken.

[00:11:19] Mais... Rien que le storytelling, il arrive à créer du storytelling entre... Enfin, il arrive à bien vendre le truc. Et le côté de j'ai fait un jeu en deux jours, juste cet argument-là, fait que les gens vont et vont payer. Après, je pense qu'il va y avoir... Le taux de rétention sur un truc comme ça, ça va s'effondrer. Mais... En l'espace d'un mois, il a quand même fait 200, 300 cas de CA. C'est incroyable. C'est ouf. On est d'accord. Et du coup, ouais. Donc, c'est ce projet-là qui nous a... Moi, ce qui se passe, c'est qu'on se dit... Donc, on n'avait pas levé de fond. On avait besoin de cash.

[00:11:51] Euh... Je regarde un peu comment ça fonctionne. Donc, c'est... On prend Stable Diffusion. On prend les images. On fine-tune le modèle avec... À l'époque, c'était encore Dream Pooze. Il n'y avait pas encore les LoRa. C'était un peu plus compliqué. Donc, il fallait vraiment retrain les poids du modèle. Et en une semaine, je fais un... On sort de terre une app qui permet de faire ça un peu plus léché que Level CIO. Et on la lance. Et pendant que je fais ça, je dis à la Audi, je pense qu'il y a... On est vraiment à l'an zéro de la GNI là. Il y a zéro tooling.

[00:12:18] Du coup, on avait dû tout faire au-dessus de Brick Low Level sur Google Cloud. Et je lui dis, je pense qu'il y a un vrai truc à aller pitcher sur... Donner à des gens non techniques la capacité de créer des workflows en no-code pour créer ce genre d'app là, en fait. Et ça, c'est la genèse d'Argile initiale. C'est... Est-ce qu'on... Enfin, on pense qu'on est à un tournant. Donc, de toute façon, sur l'outil de Non-Edge Management Snippet, il fallait qu'on reparte à zéro.

[00:12:45] Donc, quitte à changer de projet, essayons de voir ce qu'il y a à faire dans le contexte. Et pour l'anecdote, donc c'était le 7 décembre 2022. Laudis fait un PowerPoint. Enfin, fait un pitch deck sur cette idée-là. Donc, on était... On n'avait encore rien. Et il envoie à Jean Delaroche-Brochard. Donc, qui est partenaire chez Kima. Exactement. Partenaire chez Kima. Donc, le bras droit de Xavier Niel sur ses investissements. Qui a investi dans plus de 1000 boîtes. Qui est un des...

[00:13:13] Enfin, une des personnalités les plus reconnues, je pense, dans l'investissement en France. Pour le contexte, on lui avait parlé quelques mois avant sur Snippet. On avait bien fité, mais il avait passé parce que c'est un marché qui est compliqué, le knowledge management. Il y a beaucoup de boîtes qui se sont un peu pétées les dents. Notamment Rome Research. Et il y en a une autre aussi qui est assez connue. Enfin bref, c'est quand même assez dur de créer une grosse boîte sur cette verticale-là. Donc, il avait passé, mais on avait bien fini. On disait, revenez me voir quand vous avez autre chose.

[00:13:43] Et en fait, là, ça a été assez vite. Vu que... On lui envoie un deck. Donc, pour le contexte, c'est deux jours après l'arrivée de Chajipiti. On lui envoie un deck. Et en fait, on avait exactement le bon message au bon moment. Et on était en avance de phase. Dans le sens, il n'y a personne encore qui pittait de la Genia. Et deux jours après l'arrivée de Chajipiti. Parce que ça n'avait pas eu le temps de... De se décanter. Et du coup, l'histoire est assez incroyable. Parce qu'on lève 500k en précide. Enfin, un million en tout. Avec 500k de sitcom qui est le lead. Et ça s'est fait assez vite.

[00:14:13] En deux, trois semaines, on a closé le tour. Et ce qui est intéressant, c'est que... Pour être honnête, je pense qu'on serait partis un mois après un roadshow. Je ne suis pas certain que l'histoire aura été similaire. Parce que ce qui s'est passé, c'est qu'on a assez vite levé... Donc en gros, on a levé 700k en deux, trois semaines. Donc on avait encore 300k à aller chercher. Et pendant un mois, on ne s'est pris que des no-go par les VCs. Parce qu'ils recevaient 150 decks de Genia par jour.

[00:14:43] Donc ils ne savaient plus qui était crédible, etc. Ça s'est inversé les deux dernières semaines. On a closé le tour. Mais je pense que si on n'avait pas réussi à lever ces premiers 700k là, ça aurait été très très dur. Et c'est pour connecter avec le fait que... Jean cite souvent l'exercice de lever de fonds comme un alignement des étoiles entre ce que recherchent les investisseurs à un instant T. Et il y a la question du timing.

[00:15:09] Et le timing, des fois, il y a une fenêtre de tiers de deux, trois semaines, un mois. Et on a eu la bonne clé au bon moment. Et d'ailleurs, les deux levées qu'on a faits, la deuxième levée qu'on a fait, parce qu'on a relevé un autre tour depuis, c'est toujours pareil. C'est une question de créer un momentum. Donc soit il peut être créé avec une volonté de le créer, soit il est créé de manière un peu organique. Et en l'occurrence, souvent, nous, sur nos deux cas, c'était un peu de manière... Pas de la luck, parce que...

[00:15:38] Enfin, c'est une forme de randomness quand même. Parce qu'au final, on ne maîtrise pas ce qu'on est en train de faire à un moment donné. Mais c'est le contexte qui fait qu'on a pu lever à ce moment-là. Et donc, du coup, le pitch, c'était Zapier de la Genial. L'idée, c'est que c'était très compliqué à l'époque pour des gens non techniques de chienner des workflows au-dessus de la Genial. Donc texte-to-texte, puis texte-to-image, fine-tuner des modèles, etc. Aujourd'hui, il y a une pléthore d'outils, mais ce n'était pas du tout le cas à l'époque.

[00:16:06] Et du coup, on a développé ça pendant les 8 premiers mois de l'histoire de la boîte. On est assez vite monté à 60-70 000 utilisateurs. Mais on n'a pas eu de vrai product market fit. Dans le sens où on est assez bon pour faire... D'ailleurs, je pense que ça, c'est un piège souvent de croire que... Avoir de la croissance en termes de users, c'est avoir un product market fit. Là, on était monté assez vite parce qu'on faisait souvent des fronts de pêche de Reddit sur le fait de monter le produit, etc.

[00:16:36] Mais il y avait très peu de gens qui payaient et ça ne convertissait pas. Donc en fait, on s'est retrouvé au bout de 8 mois avec un produit avec beaucoup de users, mais très peu de conversions, très peu d'usages. Et tous les use cases intéressants, c'était des verticales qui ne nous plaisaient pas. Donc c'est là où on s'est dit... C'était genre quoi les use cases intéressants ? C'était majoritairement des use cases de... Le plus gros use case, c'était sales. Donc aujourd'hui, il y a beaucoup de boîtes qui se créent autour de... Hey, I, SDR. SDR, ouais.

[00:17:05] Donc là, je pense qu'il y a des choses à vers... Je pense qu'on n'était pas les bons funders pour ça. Moi, j'ai plutôt un profil software product. Là, on dit plutôt stratégie marketing, vision, etc. Du coup, on n'est pas sales de base. Et je pense que la personne qui créera une billion là-dessus, c'est plutôt quelqu'un qui connaît bien le sales et qui va vouloir stick à ça pendant 5-10 ans. Et vous, ce que vous aviez créé, c'était ce qu'on appelle aujourd'hui un orchestrateur d'agents IA

[00:17:32] ou tu étais quand même plus dans le workflow que dans l'agentique ? On était encore dans le workflow. Et ce qui est drôle, c'est que quand on a commencé, tous les concepts d'agents, même le concept d'agents, n'existaient pas encore. Il n'y avait pas encore le function calling qui permettait d'appeler des tools. On était vraiment sur des sables mouvants quand on a commencé ce projet-là. En même temps, toute la partie MCP,

[00:17:56] donc il y a un peu le protocole où tout le monde est un peu en train de s'aligner autour de ce protocole. Anthropic l'a publié, enfin a publié son draft entre guillemets en décembre. Donc, c'est très très récent. Les standards ne sont même pas encore… Enfin, il se croit que ça n'a même pas été implémenté encore par OpenAI, MCP ? Ça y est, c'est… Ça a deux semaines. OK. Par contre, effectivement, c'est une grosse validation.

[00:18:25] Oui, bien sûr, ça va devenir un certain nombre. En fait, à partir du moment où tu as quasiment les deux leaders qui commencent à se dire « bon, ok, on utilise le même standard », du coup, ça devient vraiment le « ok, tu te dis, maintenant c'est bon, on peut y aller ». Il y a même une forte chance que ce soit filé à une fondation type Apache ou truc comme ça, parce que ça n'a rien à faire dans… Enfin, en tout cas, le standard et la RFC de ces technologies. Je crois que c'est open source. OK, d'accord. Je crois.

[00:18:52] À valider, je mettrai le lien dans la description de l'épisode. Mais je crois qu'il y a un site dédié et un GitHub dédié, tu vois. Ça va finir comme toutes ces briques qui sont un peu des Legos qui doivent servir toute la communauté. Mais c'est cool parce que ça veut dire que là, on commence à tendre vers quelque chose où on est en train de construire les atomes qui vont devenir des standards assez solides. Donc, ça va être viable de builder. Ce qui n'était pas le cas encore il y a deux ans et demi. Parce que nous, on est arrivé…

[00:19:20] Il y a eu quand même le function calling qui est arrivé sur GPT-4 à l'époque. Mais c'était encore très clunky. Ça hallucinait. Les inputs qui étaient créés étaient mal interprétés. Enfin, les inputs donnés étaient mal interprétés. Les inputs… Tu peux expliquer peut-être juste pour les auditeurs un peu le concept de function… Parce qu'on a beaucoup d'éditeurs qui ne sont pas CTO comme toi. Du coup, c'est vrai que même là sur le MCP, j'ai rebondi. Mais d'expliquer un peu peut-être les deux concepts, function coding et MCP.

[00:19:50] Alors, en gros, sur LLM, quand on a une conversation dans le chat GPT, by design, le LLM est incapable d'aller chercher de la data sur Internet, de poser des questions à des outils extraits, etc. Ce qui permet aujourd'hui à chat GPT de, par exemple, se nourrir d'une recherche Google ou de savoir quelle est la méthode aujourd'hui. Par exemple, c'est souvent le use case qui est pris.

[00:20:19] C'est comment on fait cracher à chat GPT la météo d'aujourd'hui ? Et ça, forcément, il faut pouvoir appeler une fonction externe qui va savoir interpréter une question de quelle est la méthode aujourd'hui et qui va rendre la réponse.

[00:20:35] Et ce qui est intéressant, c'est que le function coding, c'est donner la capacité au LLM via le système prompt, via les instructions de dire dans ton contexte, tu as une fonction qui s'appelle Daily Meteo qui prend en input la date d'aujourd'hui ou même pas. Enfin, il n'y a même pas d'input et qui va répondre la méthode d'aujourd'hui de manière brute.

[00:20:59] C'est-à-dire que ça peut être un langage technique et le LLM, lui, va être capable d'interpréter cette réponse pour créer une réponse en langage naturel. Ce qui fait que du coup, aujourd'hui, quand on parle d'agent, etc., c'est souvent le sous-jacent de créer un agent.

[00:21:14] C'est donner la capacité à un LLM avec une mission de venir appeler des outils externes, d'interpréter, de créer automatiquement les entrées, interpréter les sorties et de chaîner comme ça ces trucs-là. Ou l'exemple même, un autre exemple, je crois qu'il y a assez souvent donné, c'est celui de la calculette. C'est-à-dire, en fait, si tu demandes à un LLM combien font 2 plus 2, alors peut-être qu'il va pouvoir te dire 4 parce que...

[00:21:43] Comme c'est probabilistique et qu'il l'a lu des milliards de fois, il le sait. Mais en tout cas, c'est quand même beaucoup plus simple de le sortir en se disant, bah tiens, ça ressemble à une addition, je vais sortir une calculette, que de le faire de façon probabilistique. Ok, donc ça, c'est le concept des fonctions. Yes. Et du coup, le concept de MCP, tu peux le... si tu devais l'expliquer de façon assez simple.

[00:22:13] Le MCP, c'est venir... ça va dans la veine du function calling. C'est vraiment donner une capacité à un LLM de venir appeler des logiciels existants et de dire comment, par exemple, il y a eu plein de vidéos virales sur... Claude qui parle avec Figma.

[00:22:38] Nous, on l'a utilisé, par exemple, c'est comment on connecte un curseur, donc un outil de développeur, avec Figma, qui est un outil designer. Et en gros, le protocole de communication sur le fait de récupérer l'intégralité du design, ça va passer par MCP, qui est modèle contexte-protocole, qui dit juste comment appeler un service externe et l'interpréter.

[00:23:01] Dans le cas de Figma, c'est... on passe une URL qui représente le design, et dans Curseur, qui est un agent LLM, lui, il va appeler le tool externe, il va récupérer la réponse, il va l'interpréter, et après, il va venir changer le code directement. Et ça, c'est assez fou, parce qu'on va rentrer dans un monde où, en fait, les agents AI vont pouvoir prendre les commandes des logiciels historiques. Et d'ailleurs, il y a un vrai sujet aujourd'hui sur...

[00:23:26] Est-ce que les acteurs historiques vont être suffisamment véloces pour implémenter ces MCP-là ? Parce que ce qu'on voit aujourd'hui, c'est que l'open source va vite. Ça a déjà été un problème sur Blender, par exemple. Par contre, tous les logiciels historiques, là où, en fait, il faut... La barrière à l'entrée est énorme, et tu as même des formations où tu vas... Il y a des logiciels de CAO ou de 3D, où c'est des formations de 3-4 ans. Là, en fait, on rentre dans un monde où n'importe qui va pouvoir utiliser ces logiciels-là,

[00:23:54] et parler aux logiciels en langage naturel. Et le sujet, c'est... Est-ce que ces boîtes historiques, avec beaucoup de ligatives, vont réussir à follow-up là-dessus ? Donc, c'est assez intéressant. C'est quoi la... Toujours dans un but didactique, je te pose un peu des questions pour éduquer l'audience. Tu définirais comment la différence entre une API ? Oui. Donc, tu vois qu'un certain nombre de logiciels ont, pas tous. Enfin, en tout cas, tout le monde n'a pas une API publique et un MCP.

[00:24:27] Quand tu crées une API publique, tu as quand même une notion de comment tu t'authentifies, quel est le protocole d'échange, etc. Avec un MCP, tu vas vraiment pouvoir... Au final, ça revient plus ou moins à faire une API au-dessus d'un logiciel existant. C'est juste que c'est beaucoup plus simple de... Le MCP de Figma, par exemple, n'est pas connecté à une API publique de Figma. Ça veut dire que ça répond à des fonctions internes de Figma,

[00:24:57] là où en fait, il n'y avait pas d'API pour récupérer cette data-là. Donc, c'est plutôt une manière... Philosophiquement et techniquement, c'est plus ou moins la même chose, au final. Sauf que ce n'est pas le même niveau de granularité. Et ça ne va pas... Au final, c'est quasiment donner une API à un logiciel interne, sauf que tu peux le donner sur des fonctions qui sont plus ou moins low-level ou high-level. Et est-ce que tu n'as pas un peu ce côté aussi... Alors, j'ai un peu caricaturé.

[00:25:23] Enfin, moi, j'ai essayé peut-être d'expliquer une perception que j'ai de différente. C'est dans les APIs, souvent la façon dont elles sont construites, tu as ce côté où les développeurs qui ont designé l'API, enfin, en tout cas, les PM qui ont designé l'API, ont ce côté très ingé, tu vois, de dire une route égale une fonction égale... Tu vois, genre, ce côté...

[00:25:52] Bah tiens, en fait, tu veux faire tel truc, tu vas peut-être devoir faire 15 calls d'API parce qu'on a voulu vraiment séparer, tu vois, chaque action, quoi. Alors qu'en fait, avec le MCP, tu as un petit côté un peu plus fourre-tout, mais sans le côté... Enfin, c'est pas négatif, mais dans le sens où, ok, en fait, moi, ce que je veux, et après, on va revenir après sur Argile, mais ce que je veux, c'est pouvoir générer une vidéo. Et en fait, je veux juste faire... Tu vois, enfin, j'ai pas besoin de faire 15 calls d'API pour faire...

[00:26:21] C'est un niveau d'abstraction qui est moins nécessaire. C'est-à-dire qu'une API au-dessus d'un moteur, d'un logiciel, généralement, c'est un niveau d'abstraction autour du logiciel. Et là, le MCP, il peut vraiment venir s'insérer dans des fonctions internes du logiciel. Donc, par exemple, si on prend le cas de Blender ou d'EdgePremier, c'est qu'il est capable d'agir sur la fonction qui va venir créer une shape et qui va venir affiner une shape. Alors que si Blender avait dû créer une API,

[00:26:50] ils auraient dû revrapper leur fonction interne pour recréer un niveau d'abstraction dessus de ça. Et c'est ça qui est intéressant. Mais philosophiquement, ça reste quand même la même chose. Ouais. Désolé pour les auditeurs, si vous venez de Patek et que vous êtes largué depuis 5 minutes. Du coup, donc, vous avez Snippet. Non, non, Argile. Argile. On est déjà passé à Argile. Vous êtes déjà passé à Argile. Vous avez Argile. Vous commencez par ça.

[00:27:17] À quel moment, avec ton cofondateur, vous vous dites, on fait fausse route. Il faut qu'on switch sur autre chose. Ce n'est pas pour nous. Et en plus, en ayant, comme tu le dis, 50 ou 60 000 utilisateurs, c'est-à-dire, tu sais ce que tu perds, mais tu ne sais pas ce que tu vas organiser derrière. Exactement. Ça n'a été jamais un moment agréable, un art pivot, entre guillemets. L'erreur dans ce genre de situation,

[00:27:45] c'est de faire un pivot tiède dans le sens coût et récupérable. Ça veut dire que souvent, les entrepreneurs se mentent à eux-mêmes en se disant, on va pouvoir transformer le produit qu'on a créé qui ne marche pas en quelque chose qui va marcher. Et en fait, ce qui s'est passé, c'est que toutes les alternatives, enfin, toutes les alternatives qu'on voulait développer, il n'y avait pas d'issue saine et véloce du fait de reprendre ce qu'on avait déjà créé.

[00:28:17] Je vais rendre à César mon associé bien meilleur que moi pour ça, pour couper quand ça ne marche pas. Et on a eu une période, et ça, on reviendra entre le rôle CEO, CTO. Moi, à cette époque-là, je lui disais, on n'a pas assez insisté. Et d'ailleurs, ce qui est très drôle, c'est que je pense, et on en a la confirmation aujourd'hui, on se mentait à nous-mêmes à l'époque sur le fait qu'il n'y avait pas de marché. Je pense que la réalité était plus subtile. La réalité, c'est qu'il n'y avait pas de funder market fit. Et que la réalité, c'est que notre potentiel en tant qu'ADN,

[00:28:48] moi, ce que j'adore, c'est le produit engineering. Et lui, c'est plutôt... Enfin, du coup, il a plutôt un côté créatif. Donc là, aujourd'hui, il est comme dans un poisson dans l'eau parce qu'on peut se permettre de faire du marketing fun, etc. Sur un produit comme ça, ça aurait été très compliqué de faire du marketing très viral. Parce que ça reste un produit froid, de workflow, etc. Et forcément, au bout d'un moment, on essaie de se trouver des raisons. Mais la vraie raison principale du fait qu'on est pivoté, c'était plutôt une question de funder market fit. On parle souvent du produit que market fit.

[00:29:18] Mais le funder... T'écoutes le podcast. Market fit. On en parle souvent du funder market fit. C'est peut-être un biais de first time. Je peux aller sur n'importe quelle industrie, mais la réalité, c'est qu'une boîte, ça met entre 5 et 10 ans pour créer une vraie boîte. et prendre un sujet qui ne nous drive pas et qui ne nous passionne pas, c'est à peu près sûr qu'on va give up avant que ça commence à devenir significatif. Et d'ailleurs, moi, j'ai été choqué à Y Combinator sur la capacité des funders

[00:29:48] à pivoter pendant le batch et de comprendre ça très vite et de se dire... J'ai une anecdote. Avant de commencer le batch, il y a une retraite et il y a plein de conférences des partenaires, etc. Et il y a un des partenaires qui dit vous allez passer potentiellement 10 ans de votre vie sur votre sujet, donc choisissez le bien. Et tu as littéralement des funders qui ont été voir leur partenaire juste après le truc et qui font, en fait, l'idée qu'on avait pitché à l'interview, on n'y croit pas. Ça ne nous drive pas des masses.

[00:30:17] On avait choisi ce truc-là parce que c'était sexy, mais on pense qu'il faut changer et ils ont changé pour ces raisons-là. Et du coup... Déjà, si tu te poses la question, entre guillemets, t'es mal barré. T'es mal barré complètement. Et ça, c'est souvent le côté de ah, j'ai vu qu'il y a des trucs à faire sur les voice agents, etc. Ils ne se posent pas la question de ok, mais est-ce que le domaine dans lequel tu vas builder, parce que ça peut être déjà le domaine et les clients. C'est-à-dire que je pense qu'il y a des gens qui sont très bons pour vendre aux enterprises et des gens qui sont bons

[00:30:47] pour vendre aux consumers. Et ça, nous, typiquement, on a choisi aujourd'hui de plutôt targeter les individus, les agences, plutôt un play consumer-prosumer plutôt qu'un play enterprise parce que fondamentalement, aller vendre à des boîtes du 440 ou du Fortune 500 ou c'est des deals qui prennent trois mois ou c'est très Steve dans l'approche, ce n'est pas du tout notre ADN. Et ça, en fait, nos choix,

[00:31:17] même sur quel client on veut se targeter, c'est lié aussi à notre ADN à nous et on serait très mauvais là-dedans parce que juste, ça ne nous fait pas rêver. Et je pense qu'il y a beaucoup de founders qui abandonnent parce qu'ils ne se sont pas posés ces questions-là. Et du coup, ce pivot, ce hard pivot, vous le faites avant ou ici ? On le fait avant ou ici. Donc, ce qui se passe, c'est que on a un peu listé, donc on s'est posé sur les sujets

[00:31:46] d'une qui nous drive et sur lesquels on pense être en croissance dans les 5, 10 prochaines années. on est assez vite naturellement venus à la créateur économie. Mon associé avait fait une masterclass, on avait tous les deux créé une chaîne TikTok, moi sur l'éducation dev, mon associé sur l'éducation start-up et on s'était vite rendu compte de la peine de créer un short tous les jours. J'ai fait ça pendant 6 mois et c'était cool mais ça m'a vite gonflé et j'avais juste pas la bande passante et c'est quasiment à temps plein. Donc,

[00:32:16] on était intéressés par le sujet et donc ça, c'était le premier truc, c'est OK, partons sur cette industrie-là. Quel format ? On est assez naturellement venus sur la vidéo parce qu'on pense que c'est le médium du futur et c'est encore, il y a encore un potentiel de x10 la vidéo dans les 5-10 prochaines années et donc à l'époque, on a un peu regardé ce qui se faisait et donc un mois avant ça, il y avait Agen qui avait explosé sur leur premier modèle

[00:32:46] de l'Avatar. Exactement. Ils avaient commencé par le Debing mais ils venaient de sortir leur clone AI qui était assez fou parce que pour la première fois, on arrivait à faire des avatars photoréalistiques quasiment bluffants et en fait, on a commencé un peu reverse engineer leur manière de faire, on a compris comment ça fonctionnait, on a testé toutes les solutions en open source sur le sujet, on s'est rendu compte qu'il n'y a aucun modèle en open source qui marche pour la simple et bonne raison que c'est un sujet sensible parce que ça ouvre, à partir du moment

[00:33:16] où tu as une tech qui marche bien, tu peux faire des deepfakes et du coup, la recherche est assez cloisonnée et toutes les technos open source aujourd'hui, il n'y a pas encore de modèle open source qui fait bien du coup de la talking head parce que personne n'a envie d'être la personne qui va ouvrir cette boîte de Pandore parce qu'à partir du moment où tu as fait ça, n'importe qui peut faire un deepfake de n'importe qui. Et du coup, on se dit soit on construit au-dessus d'API comme agent ce qui est possible mais du coup, tu es obligé de faire un play

[00:33:45] très verticalisé soit on construit cette tech-là et donc on fait de l'IP là-dessus. Du coup, on se crée un peu un edge. Et en fait, ce qui s'est passé, c'est qu'on a fait quelque chose que je déconseille, c'est qu'on a fait un tunnel de 4 mois sur le fait de faire le modèle. Donc en fait, on a eu tous les papiers de recherche sur le sujet. On a un pic spécifiquement, d'ailleurs un papier qui date de 2020 et on l'a réimplême avec des briques low-level et on a itéré sur ça.

[00:34:15] Et ce qui s'est passé, c'est qu'en fait, on a craqué les problèmes les uns après les autres. Donc pour faire un clone de visage, il y a trois problèmes à craquer. Le premier, c'est la synchro labiale que ça ne soit pas off quand tu parles. Le deuxième, c'est la photographie. Donc on arrive à refaire les dents, la barbe, etc. Et le troisième qui est un peu plus subtil, c'est le style d'expression. C'est que tout le monde a une manière de s'exprimer différente et en fait, tu ne peux pas généraliser ça. Et c'est pour ça que du coup, aujourd'hui, on fait du fine tuning là-dessus

[00:34:44] parce que c'est quasiment impossible ou alors ça coûte extrêmement cher de réussir à généraliser le style d'expression en one shot. Du coup, depuis trois minutes, je suis en train de te regarder en mode, c'est vrai qu'à certains moments, il fronce le front. Là, tu as les petites rites près des yeux. On ne m'en parle pas parce que du coup, toute ma team, on est devenu obsessionnel sur ce qui fait un style d'expression parce que c'est comme ça qu'on a craqué le problème et de comprendre les gens,

[00:35:13] les lèvres ne se touchent jamais. Tu as des... Un style d'expression particulier, c'est celui de Trump. Trump a toujours la bouche très ouverte et il a un style d'expression qui est unique et c'est... Parce que ce n'est pas un humain. Mais peut-être, exactement. C'est pour ça. Exactement. Peut-être que du coup, c'est un premier modèle qui clone les aliens. Et du coup, en fait, ce qui s'est passé, c'est qu'à la base, on s'était donné un mois et demi pour voir comment ça avançait. On a craqué les problèmes les uns après les autres

[00:35:42] et on s'est retrouvés en mars, du coup, il y a un peu plus de... Il y a un an quasiment jour pour jour avec ce modèle-là qui marchait bien. Quand tu dis on a craqué les problèmes les uns après les autres, ça m'intéresse de revenir spécifiquement là-dessus. Est-ce que à un moment donné, et je ne sais pas, tu vas me dire si c'est le cas ou pas et à quel moment, vous vous êtes dit en fait, ok, on va lister tous nos challenges techniques. Tu vois, là,

[00:36:12] tu as cité les trois déjà à régler mais ensuite, j'imagine que pour chacun de ces trois-là, tu as des sous-jacents, c'est-à-dire savoir identifier, reproduire, machin et tout. Est-ce que ça veut dire qu'à un moment donné, en fait, vous vous êtes dit ok, si on veut générer une vidéo qui soit représentative d'un humain, et dans toutes les circonstances, en fait, on a 15 briques à, on va dire, à traiter et il faut qu'on arrive à les traiter

[00:36:42] à 100 ou peut-être à 80% pour qu'on ait quelque chose. Est-ce qu'à un moment donné, tu as eu cette démarche-là et aussi pour éviter l'effet tunnel, tu vois, de se dire à un moment donné, on ne sera jamais satisfait du truc. En gros, ce qui s'est passé, vu qu'on est parti d'une architecture qui était d'un papier de recherche, l'approche en termes de science, on savait que c'était possible. La question derrière, c'est d'implèmme ces papiers de recherche-là avec... Et dans notre architecture, il y a deux layers, une qui gère la photographie

[00:37:12] et une qui gère les deux autres problématiques, le style expression et la synchro labiale. Et en fait, on a assez vite craqué la synchro labiale et la photographie. Et après, le dernier truc à craquer, c'était le style expression. Et ça, en fait, on a vraiment avancé à tâtons. On savait où on allait. On était assez clair sur... OK, ça, c'est l'output acceptable minimal. La capacité de refaire une vidéo qui est postable, entre guillemets.

[00:37:41] Et on a avancé un peu à l'aveugle. Après, on se redonnait... Initialement, on s'est donné un mois et du coup, on a eu un des premiers progrès au bout de trois semaines. on s'est redonné un mois et il y a une histoire. En fait, on aurait pédalé un spool pendant trois mois et on aurait arrêté. Ça ne s'est pas passé, mais c'est un peu comme ça qu'on a raisonné. Quand on fait de la R&D, c'est un peu la bonne approche parce que c'est quasiment impossible à quantifier quand tu vas arriver au résultat et c'est plutôt se dire OK,

[00:38:12] on a envie d'arriver au résultat. On est à A, on veut aller à B, mais peut-être qu'il y a cinq étapes entre temps et du coup, on mesure le succès entre temps, mais on n'a pas encore craqué le truc. Et donc là, c'était vraiment quasiment de la recherche appliquée qu'on a fait pendant trois, quatre mois avec un esprit un peu de hacker dans le sens qu'il y a beaucoup de churkuts qu'on a pris, qu'on a... qui nous ont fait gagner.

[00:38:43] En gros, je pense que je peux la raconter celle-là maintenant, c'est qu'il y a un sujet bien spécifique qui nous a fait gagner au moins six mois de taf. En fait, moi, pour donner le contexte, je prenais ce fameux papier de recherche-là je prenais le nom des chercheurs qui taquent et après, en gros, tu peux trouver 50 papiers de recherche sur ces sujets connexes. Il y a plein, plein, plein de papiers dessus et en fait,

[00:39:13] j'allais sur les... sur le profil LinkedIn de chaque chercheur sur les sujets connexes et on est tombé sur un repo, donc open source, de quelqu'un qui avait écrit le code d'un truc très spécifique dans notre architecture avec zéro star sur GitHub et ça, c'est un ping-pong de... Je vais sur son profil LinkedIn, je regarde les posts qu'il like, j'arrive sur un post qui a 10 likes et c'était un autre mec qui disait « Ah, ma petite contribution à l'open source. » Du coup,

[00:39:43] il met le repo et ce qu'il avait écrit, c'était littéralement ce qu'on était en train d'essayer de craquer et en fait, ça nous a fait gagner six mois. Et ça, dans un contexte de 0 to 1, si on avait raisonné comme des chercheurs en disant « On part des papiers de recherche, nous, on fait les choses de manière noble, de manière propre », on aurait mis... D'ailleurs, on l'a fait après.

[00:40:13] Après avoir eu le premier modèle, on a dû refaire les choses proprement pour avoir vraiment les mains libres. Ça nous a pris huit mois. Mais la première version, on a pris tous les shortcuts possibles et on s'est retrouvé avec un modèle quasiment state of the art. D'ailleurs, j'ai une anecdote marrante. Il y a un mec qui est venu me voir il y a un mois à un event. Il m'a dit... On a fait un call ensemble juste après avoir eu le breakthrough. Il m'a dit « Je pensais que vous éditez des énormes imposteurs parce que c'était impossible de faire ce que vous aviez fait. » Et personne n'a compris comment on a réussi à faire un modèle comme ça.

[00:40:43] Et c'était juste un assemblage malin de plein de briques très low level parce qu'il faut quand même on a fait le modèle, on la traîne, etc. Mais du coup, avec la bonne approche, on a fait en trois mois ce qu'une équipe extrêmement performante avec la mauvaise méthode aurait fait en un an. Et du coup, c'est ça la leçon. Des fois, il faut juste être pragmatique sur « Ok, on a envie d'aller à un B et le truc n'était pas parfait. On a dû le reprendre. Mais au moins,

[00:41:11] ça nous a permis d'aller à l'étape d'après. » Et justement, par rapport à ce que tu viens de dire, vous, sur la génération d'Avatar Vidéo, c'est un modèle IA au même titre que tu vois genre OpenAI a des modèles de LLM. C'est un modèle IA ou c'est plus un service ? Je ne sais pas trop

[00:41:40] comment différencier les deux. Mais toi, pareil, ça se traîne, ça se... Enfin, tu as un output. C'est la même logique qu'un LLM. C'est pas les mêmes... On a des transformations dans notre archi. Après, c'est les modèles qui sont beaucoup plus spécialisés. Dans le sens, ça coûte beaucoup moins cher à train. La data, c'est de la vidéo et des gens qui parlent. Donc ça, c'est la manière d'entraîner la data. Par contre, c'est pas un...

[00:42:09] C'est pas la même layer qu'un modèle fondationnel type LLM. C'est en train de devenir le cas sur la vidéo type les modèles comme VO2, par exemple, ou Sora. Ça, on peut les mettre sur la même layer qu'un LLM type GPT parce que t'es sur une layer où le modèle, il a généralisé énormément de choses. Nous, notre modèle est très spécialisé. Il sait faire qu'une chose, c'est prendre... Donc, on part d'une vidéo existante, on apprend le speaking style,

[00:42:39] la photographie de la personne et après, avec un nouvel audio, on est capable de refaire tout le visage. Et ces modèles-là marchent bien, permettent de faire du real-time aussi parce que ça reste des petits modèles par rapport à des gros modèles type LLM ou même VO2. Donc, c'est pas le même... C'est pas les mêmes coûts, c'est pas les mêmes tailles de modèles. C'est les modèles de paramètres, contrairement au modèle où tu t'évites à des centaines de milliards de paramètres sur des gros modèles. Donc, c'est pas la même layer mais ça reste... En termes d'architecture

[00:43:08] et en termes de science, ça reste assez proche. La même logique. Ouais. Et en termes de... À quel moment vous faites une... On va dire, tu commences à avoir un modèle qui est donc suffisamment fiable pour avoir un output où tu te dis, tiens, ok, ça je peux le mettre dans la main de user et à quel point vous avez progressé depuis ? Ce qui s'est passé, c'est que on a eu... On a commencé

[00:43:38] à avoir des très bons résultats en mars dernier, enfin en mars, il y a un an et le premier truc qu'on a fait, c'est qu'on s'est amusé à l'époque à faire des... Le premier deepfake, c'était un deepfake d'Obama. Donc, à chaque fois, on met texte AI generated, on était assez bien sur les messages, etc. Et ça, on a commencé à le faire tourner à des potes en interne et en fait, tout le monde était bluffé. Donc, ce qu'on voulait vérifier, c'est est-ce que si je te montre cette vidéo d'Obama, tu me dis bah oui, c'est Obama. Et on a eu ce niveau-là

[00:44:08] direct en interne. Donc ça, on a vérifié que le niveau était assez acceptable. Ça, c'est pareil, c'est très contextuel. On a fait des vidéos, on s'est dit qu'il faut qu'on soit visible sur les réseaux. On a mesuré le risque et on a fait des vidéos de Marc... La première vidéo que je fais, c'est une vidéo de Marc Andresen, donc le fondateur du fonds d'investissement Andresen-Horowitz qui est un des fonds les plus iconiques de la Silicon Valley qui a investi dans Facebook. Enfin bref, il est assez connu et assez connu aussi pour être assez libertarienne et assez ouvert

[00:44:37] sur l'open source. Donc on se dit c'est la bonne personne parce que soit ça passe inaperçu, soit ça va lui plaire et en fait, on a le premier deepfake qu'on fait, c'est un deepfake de Marc Andresen qui dit qu'il faut plus de deepfake parce que ça va débloquer des use case sur l'éducation et en fait, cette vidéo, je la poste un samedi soir 5000 vues, 10 000 vues, 50 000 vues et les gens commencent à taguer Marc Andresen sur Twitter et Marc Andresen le retweet mon tweet et il met un petit message sympa en disant j'autorise les deepfakes que s'ils me font dire quelque chose

[00:45:07] que j'aurais pu dire dans la vie réelle. Donc il le prend avec ironie, c'est assez drôle, ça nous donne beaucoup de visibilité et en fait, on avait mis un petit RGDI en bas à droite donc on commence à stacker des gens sur la waiting list et c'est là qu'on a commencé à avoir un peu de traction sur user. Donc on a eu une traction et énormément de visibilité en l'espace de deux semaines, on a dû faire 50 millions de vues cross réseau entre les différentes vidéos qu'on a faites et vu qu'il y avait le petit filigrane RGDI les gens arrivaient sur notre landing et là,

[00:45:37] il n'y a encore rien, on a juste une waiting list sans produit. Et donc là, on a commencé à stacker un peu une traction comme ça. Ça, c'était avant YC ? C'était avant YC. Et du coup, YC, donc là, vous commencez à avoir un truc qui tourne pas mal, des users, comme tu dis, qui se stack. et est-ce que tu... Enfin, pour vous, YC, du coup, c'était une évidence ou est-ce que vous auriez pu vous dire bon, c'est bon, en fait, on sait choper

[00:46:07] des users, on avance, on n'a pas besoin de le faire ? Alors, pour le contexte, on avait Apply à YC en janvier, donc avant le breakthrough, avant que ça explose et donc, ce qui se passe, c'est qu'on a la visibilité, du coup, on crée un momentum. Je te parlais du momentum tout à l'heure sur la levée. Dans le contexte, il nous restait encore... On n'avait quasiment rien cramé de la première levée et on n'avait pas spécialement l'envie de lever avant un certain temps. Le truc,

[00:46:36] c'est qu'on se retrouve avec... On stack quasiment 10 000 personnes sur la waiting list en deux semaines et, en fait, on se rend compte que si on a envie de faire quelque chose de significatif sur ce modèle-là, il faut qu'on recrute des profils, des talents côté science. Donc, en fait, on avait besoin obligatoirement de lever si on voulait jouer ce play-là. Et, en fait, on part en lever. Ça se fait très, très vite. On rencontre un fonds suédois qui s'appelle Equity qui se positionne très vite et on a une term sheet

[00:47:05] d'EQT dans la foulée. Et ce qui se passe, c'est qu'on signe la term sheet et trois jours après... C'est Jonathan ? Non ? Ted. Ted Person. OK. Du coup, c'est directement le fonds suédois qui a mis un... Enfin, ça a été assez vite. Ils ont pris l'avion, on a fait un dîner, on a fait le partner call et ça s'est assez vite enchaîné parce qu'il y avait un peu un sentiment d'urgence et ça, c'est souvent le... Quand vous avez le momentum, il faut créer cette urgence-là et ça, on a réussi à convertir ce truc. Et en fait,

[00:47:34] on signe la term sheet et trois jours après, on avait même oublié qu'on avait appelé à YC, on reçoit l'email d'interview. Et là, on passe par plein de phases. Première phase, putain, trop cool, on y va, tatatac. Et on réfléchit un petit peu, mais attends, on a levé 5 millions, du coup, ça sert à quoi de faire YC ? Parce que ça implique de se rediluer de 7 %, donc de diluer nos investisseurs historiques, nous-mêmes, etc. Et au final, on va à l'interview avec... sans trop de pression parce qu'on se dit

[00:48:04] de toute façon, il faut quand même une forte probabilité qu'on n'y arrive pas parce qu'on a déjà levé. On fait l'interview, on arrive dans l'interview et donc les deux interviewers, c'était Gary Tan et Aaron Epsin, Aaron Epsin qui est notre partenaire. Donc on fait l'interview, tu te fais bombarder de questions pendant 10 minutes. C'était un sujet qu'on maîtrisait bien parce que ça faisait 6 mois qu'on le ponçait. Bref, très très bon feeling. On se dit, bon, on a donné tout ce qu'on avait à donner, on verra. Et le lendemain, donc Aaron appelle là au 10,

[00:48:34] donc il t'appelle à 7h du mat parce qu'avec le décalage horaire. Bon, on est méga chaud, vous êtes prêt à WC, du coup, donnez-nous votre réponse dans les 24h. Et là, en fait, ça change parce qu'on est passé de bon, on n'ira peut-être pas à on a accepté à WC et on se dit, il faut peut-être qu'on fasse le tour des popotes pour voir si refuser, ce n'est pas une énorme erreur. Et en fait, on parle à pas mal de potes qu'on fait WC. On parle,

[00:49:04] je pense que celui qui a été le plus instrumental, j'ai encore le vocal sur Montel de Jean de la Roche-Brochard parce que l'audit s'a demandé à Jean est-ce que ça vaut le coup de le faire. Et il lui a répondu WC, ça reste, c'est une machine à laver de trois mois en tant que founder français. C'est la meilleure chose à faire parce que ça te, d'une, ça te booste ta confiance en toi et de deux, ça te remet l'égo-centrisse

[00:49:34] que tu pourrais avoir dans l'écosystème français si tu as du succès. Ça te le remet au bon niveau parce qu'en fait, tu es tellement confronté au top 0,1% et à des gens qui ont monté des boîtes incroyables et qui n'ont pas un dixième de l'égo de gens qui ont fait dix fois moins en France. Et ça, c'est un vrai truc que tu ressens auprès des partenaires, auprès des founders dans la Silicon Valley, c'est que c'est vraiment des mecs qui pèsent tous 300 millions, plusieurs milliards et tu as l'impression

[00:50:03] de parler à un first-time entrepreneur qui n'est pas du tout « Ouais, tu sais, j'ai fait des choses et que ça, que ça. » Et ce qui est très drôle parce que tu vois c'est assez commun en France le moindre mec qui fait une boîte à dix millions derrière, ça y est, c'est le futur Cip Jobs, tu l'entends sur tous les podcasts et il y a une arrogance très française et ce que tu ne ressens pas du tout auprès de ces founders-là. Du coup, après ça peut être enfin, je comprends et en même temps ça peut être un play. Dans le sens où

[00:50:33] tu vois, tout ce qui est personal branding et tout et où parfois d'ailleurs, enfin, il y en a qui n'aiment pas ça mais il y en a qui le font avant même de rencontrer le succès mais au final c'est un peu autoprophétique parce que si tu le fais bien et de façon assez intensive, finalement, ça va te donner de la visibilité et potentiellement te permettre de se faire. Oui, bien sûr, il y a des gens qui construisent ça, Fair enough,

[00:51:02] ce que je constate et d'ailleurs, je l'avais même constaté au-delà de l'entrepreneuriat, les sujets techniques par exemple, enfin moi, j'avais été bluffé, j'ai passé un an dans la Silicon Valley en 2012 et tu parles avec des ingénieurs de génie qui ont fait des technologies absolument incroyables chez Google, Facebook, etc. Et tu ne ressens pas du tout une arrogance de « ah, moi je vais t'expliquer » etc. Et ça, ça se vérifie aussi dans l'entrepreneuriat et je pense que Y6, il y a

[00:51:34] un trait qui est bien particulier notamment sur quelqu'un nous, on n'a pas fait les grandes écoles mais quelqu'un qui était dans le sérail des grandes écoles françaises qui, on te dit pendant toute ton adolescence t'es l'élite de la nation, t'es le roi du monde, quand tu pars dans la Silicon Valley ça te remet un peu l'église au milieu du village. Donc tu gardes quand même ce niveau d'ambition, ça ne veut pas dire qu'il ne faut pas être ambitieux et qu'il ne faut pas avoir confiance en soi. Par contre, tu te rends compte que vraiment t'as des gens

[00:52:04] dix fois plus humbles qu'on fait dix fois plus et donc ça ne sert à rien d'être ça parce que ça n'apporte rien. Mais après, je suis d'accord avec toi, ça reste... C'est très contextuel à l'écosystème français. Je comprends les gens qui le font parce que ça peut permettre d'atteindre des paliers mais en tout cas, le contraste est réel. Et donc, ces gens qui vous ouvrent un peu les yeux là-dessus, qui vous encouragent en tout cas à le faire et en plus, lui aussi au final, il va être dilué. Exactement. C'est pour ça, je pense que s'il y a bien...

[00:52:33] C'est qu'il pense... Il a pensé à l'intérêt de la boîte et l'intérêt des founders avant de penser à son propre intérêt d'investisseur et après, même en tant qu'investisseur, même si tu te fais diluer, la réalité, c'est que le fait de faire YC, je pense que ça augmente significativement tes chances de succès, ce qui fait que c'est un net positif pour lui la fin de la journée. Et tous nos investisseurs, il n'y a personne qui a tiqué en disant « Ah, je n'ai pas envie de me faire diluer ». Ouais. Du coup,

[00:53:01] vous faites fois ici. Pour vous, à ce moment-là, comme tu disais, le breakthrough, vous l'avez déjà fait, donc vous savez générer de la vidéo comme il faut. C'est quoi, du coup, pour vous, l'objectif des trois mois ? C'est-à-dire, on essaie d'onborder le plus de clients possibles, déjà d'utilisateurs possibles et de commencer à les convertir ? Ouais. En gros, nous,

[00:53:31] notre promesse, c'est de te permettre de créer une vidéo engageante, postable, sans passer une heure sur la vidéo édition. On fait à la fois le modèle et on fait à la fois le vidéo éditeur, ce qui fait que du coup, on s'est attaché un peu un boulet au pied, c'est que notre interface, ce n'est pas juste un truc où tu mets un prompt et ça te fait une vidéo raw que tu dois télécharger et remettre sur CapCut ou sur Première. Donc, en fait, on savait que quand on a vendu à nos premiers clients, on a vendu quelque chose qui était très raw, bare bones, on a dit, en fait, on va itérer avec vous, ce qui va,

[00:54:02] en fait, vous allez avoir un discount et on va itérer avec vous. Et l'objectif de YC, ça a été vraiment de sortir une verre du produit, donc l'éditeur vidéo et le modèle en production et de commencer à vendre directement. Et ça, c'est un truc aussi que le premier Office Award qu'on a fait avec YC, donc on lançait le produit deux jours après, on leur a dit, bon, notre objectif dans les deux semaines, c'est à 3000 dollars de MRR et direct, non, ce n'est pas assez ambitieux, vous allez faire 5.

[00:54:32] Finalement, on a fait 4800 et ils ont une capacité justement à te mettre, ils sont très business driven et tu n'es pas là pour faire une boîte de, on va faire de l'acquise, on ne sait pas comment on mettra plus tard, c'est comment se vendent direct, parce que si, surtout sur des produits AI, si tu ne vends pas direct, et on l'a vu même sur notre premier produit, on avait fait cette erreur-là, tu peux vite te retrouver avec 100 000 user, tu as l'impression d'avoir un produit marque AFIT, mais en fait, tout le monde s'en fout de ce que tu as fait, c'est juste que vu qu'ils ont juste à cliquer sur un bouton et s'inscrivent, ça ne coûte rien ça. Et donc,

[00:55:03] les vidéos que vous faites, c'est que du vertical, c'est du vertical de l'horizontal, tu es agnostique ? On fait les deux. Ok. On fait les deux, là on est plutôt sur des formats courts, max 3-4 minutes, mais la vidéo moyenne, c'est plutôt entre 30 secondes et 1 minute 30, horizontal et vertical. Et, attends, on va revenir sur ce point de vue-là, sur ce que vous permettez de faire juste après.

[00:55:33] Donc, YC, ils vous mettent sous pression, 4800 dollars de MRR au bout de deux semaines. Vous finissez à combien ? Enfin, tu as une idée de... On finit le batch à 100k d'MRR. Donc, on est assez vite, on est monté à 100k pendant les trois mois. Ce qui nous a permis de... En fait, pendant trois mois, notre seul focus, c'était de vendre et de construire. Donc, ça, on a... Donc, c'était en septembre et on est assez vite monté. C'était cool, c'était la première milestone.

[00:56:05] Donc, ouais, c'était majoritairement d'arriver par ça, quoi. Comment tu balances entre... Sur la partie construire, parce que toi, je t'interviews avec la casquette à proprement parler de CTO. Tu... Tu as deux parties, en fait, dans ton produit. Tu as le modèle, tu as l'interface, j'imagine que le modèle, on va dire, les itérations, elles sont plus chaudes à faire en peu de temps. Ça veut dire quoi ? Ça veut dire que tu te dis, c'est bon,

[00:56:35] le modèle, il tourne, on verra plus tard ? Comment tu parallélises un peu cette partie-là ? Pour reconnecter avec ce que je t'ai évoqué tout à l'heure sur le côté acquis de la première version du modèle, en gros, ce qui s'est passé, c'est que la première version du modèle qu'on ship en mars, d'ailleurs, qui était encore en production en janvier dernier, donc on a sorti la nouvelle version mi-février, c'est qu'elle marchait très très bien pour refaire exactement la même vidéo si ton ton, en termes de voix et ta voix,

[00:57:05] était très proche du dataset. Dès que tu changeais la rapidité, le volume de la voix, dès que tu changeais de voix, ça cassait le modèle et ça marchait moins bien. Ça marchait à 70%. Du coup, on avait un modèle qui a parfois marché bien, mais parfois était catastrophique. Donc en fait, on n'avait pas le choix, il fallait qu'on a créé le produit autour de ça et en parallèle de ça, et ça, ça a été un travail de juin jusqu'à décembre, janvier où on a mis six mois à rattraper,

[00:57:35] du coup, à refaire le modèle actuel juste de manière robuste. Et donc ça, c'était complètement paralysé. On a très vite une infra avec la partie inférence sur le modèle avec la première version et en parallèle, du coup, côté ML, il y a trois personnes qui bossent là-dessus temps plein et c'était paralysé. Et du coup, effectivement, ce n'est pas du tout les mêmes cycles de développement parce que le machine learning, le deep learning, c'est que tu as envie

[00:58:05] d'arriver à un goal. Ton but, c'est de faire une... soit de partir d'une architecture existante, soit de modifier une architecture. Ensuite, il faut collecter la data, il faut faire les maths du modèle, traine les modèles, savoir si tu pars dans la bonne direction et ça a été très fastidieux. Pendant trois mois, on n'avait pas de résultat puis après, on a commencé à découvrir, on a appris au fur et à mesure. Tu es un peu quasiment un... Tu découvres en cours de route, tu fais des expériences. C'est quasiment de la biologie, en fait, le machine learning.

[00:58:35] Intéressant. Ok, et donc là, vous sortez sans cas d'ARRR à la fin, vous ne levez pas ? Enfin, vous n'avez pas besoin de... On ne lève pas parce que du coup, on avait closé... Vous faites quand même le démodé ou pas ? On fait le démodé et pour l'anecdote, on fait le démodé, on se dit, ok, de toute façon, on n'a rien à perdre, on va prendre des risques et on a fait le démodé avec notre tech. Donc en fait, ce qui s'est passé, c'est qu'on a record une vidéo d'Avatar de l'AO10 en mode zoom

[00:59:06] et en fait, le démodé, là, ça a changé parce qu'ils refont les démodés en présentiel mais jusqu'à le dernier batch, c'était sur zoom et tu as une minute et les boîtes s'enchaînent. Donc vraiment, pendant trois heures, tu as une minute, une minute, une minute, une minute et au lieu que l'AO10 pitch en live, ce qu'il a fait, c'est qu'on a record le pitch et à la fin du pitch, les cinq dernières secondes, l'AO10 dit oh, by the way et là, on dézoome sur l'app

[00:59:36] et il dit j'étais un avatar et en fait, toute la démo était fait un truc et ça a été assez fou parce que il y a un Slack interne à WC, tout le monde était what the fuck est-ce qu'il s'est passé ? On a reçu... Donc en gros, comment ça fonctionne, c'est que les investisseurs peuvent mettre I want to invest. On a dû recevoir une cinquantaine de mecs qui voulaient investir derrière. On leur a tous dit non parce qu'on n'était pas enlevés mais du coup, on s'est fait connaître dans notre batch parce que ça reste quand même il y a beaucoup d'entrepreneurs on s'est fait connaître avec ça. Ça,

[01:00:06] tes partenaires, ils étaient OK ? Enfin, parce que parfois, ils n'aiment pas trop qu'on joue avec le pitch. À la base, on voulait faire un truc beaucoup plus osé mais en fait, ils nous ont dit vous pouvez le faire par exemple, il faut qu'on reste dans les carcans que ça ressemble à une démo et là, on était sur le niveau acceptable. Au début, on voulait faire un truc un peu plus filmé, travaillé, disant non, ça, c'est pas possible et là, là, c'est passé parce que c'était bien préparé. Par contre, ce qui est très drôle,

[01:00:35] c'est que 20 minutes, donc ce qui s'est passé, c'est que le matin même, on a quand même fait un test avec l'équipe de YC pour voir si ça marchait bien parce que c'était assez technique, il fallait fake la webcam, il fallait fake le micro pour pouvoir streamer qu'il n'y ait pas de lag, etc. On fait les tests la veille avec un fake zoom, ça marchait et le matin même, il n'y a rien qui marchait sur leur truc, la vidéo ne streamait pas, etc. Et là, Audis m'envoie un message 10 minutes avant notre slot, je m'apprête à pitcher en live

[01:01:04] et il n'était même pas habillé, je m'apprête à pitcher en live, le truc ne marche pas. Et du coup, moi-même, je ne savais pas ce que j'allais voir, il restait des courses, il le tente et tout a marché nickel mais je n'étais pas serein. Vous l'avez l'enregistrement ? Je pourrais te le retrouver, oui. Il y a moyen de le mettre dans la description ? Je ne sais pas s'il y a des infos qu'on pourra acheter. Je retire que la pratique sinon, s'il y a moyen, ça peut être assez cool. Je pourrais partager la fin, je pense,

[01:01:34] j'aimerais avec la audite. Ok. Mais du coup, c'était un risque à prendre, on a failli passer pour des cons parce qu'on aurait pu, ça aurait pu stuck au milieu. Là, on a pris le risque mais on s'est dit, de toute façon, on ne veut pas lever, il fallait le prendre. Du coup, ça vous terminez l'été dernier. Depuis, on va dire, vous arrivez à maintenir votre croissance ? Ce qui s'est passé, comme toujours, et d'ailleurs, tu as un fameux graph

[01:02:04] de Paul Gram qui s'appelle... Taper graph de startup Paul Gram, tu pourras le mettre, c'est une espèce de truc où tu as toujours un pic, après ça redescend, après tu build, tu build, tu build et après tu as ton PMF. Et je pense que toutes les startups passent par là, surtout quand tu fais l'AI et tu fais un produit assez deep comme le nôtre, c'est qu'en fait, on est vite monté à 100K d'AERR. On aurait pu continuer à faire de la grosse parce que ça, on sait faire. Par contre, on savait qu'on était en train de remplir un tonneau percé parce que le produit

[01:02:34] était encore trop instable. Parce que faire un bon éditeur vidéo, tu as tellement de choses à gérer sur que tout soit synchro, la layer, que ce soit bien blendé, que les stoutes soient bien burnés. C'est assez chiant à faire. Et du coup, on est rentré en octobre, on a passé un mois et demi, deux mois à stabiliser le produit et on est reparti sur la grosse en décembre là-dessus. Mais on n'a pas continué direct. Et tout se fait côté back ? C'est du back, du front, tu as toute la partie synchrone. C'est la partie

[01:03:04] génération de vidéo ? Oui. Elle se fait côté back ? Les deux. Du coup, tu es obligé vu que c'est un peu comme quand tu es dans Adobe Premiere ou dans CapCut, ce que tu vois quand tu fais play, ce n'est qu'une somme de couches superposées. Et quand tu fais play, la vidéo, elle n'existe pas encore. Du coup, tu es obligé de faire ça parce que tu ne peux pas render la vidéo en live parce que pour faire une vraie vidéo, il faut venir assembler toutes les couches. Donc, ça peut être un média, les sous-titres,

[01:03:34] toutes les layers que tu vois. Et en gros, quand tu fais un éditeur vidéo, l'éditeur vidéo, ton render, c'est que des couches que tu veux empiler. Et après, quand tu fais generate, quand tu exportes ta vidéo sur un luciel, ce qu'il fait, c'est qu'il vient prendre toutes les layers, le son, l'audio, etc. Et il vient tout assembler. Et donc, la première version, ça a été sur le front de que quand tu fasses play, tout soit bien synchro. et après, quand tu génères,

[01:04:04] t'es exactement ce que t'avais vu dans l'éditeur. Et ça, c'est assez chiant à faire, c'est assez chiant à tester. T'as plein de bugs. Enfin, c'était... Mais, c'est assez cool parce qu'il y a un peu une barrière à l'entrée pour faire ça. C'est quoi le... Oui, c'est ça la question que je vais te poser depuis longtemps et j'imagine que les auditeurs se posent aussi. Très concrètement, c'est quoi l'usage ?

[01:04:34] Alors moi, il y en a que j'imagine parce que j'avais pensé à un moment donné avant même qu'il y ait la GNI et tout, j'allais chercher des solutions. C'était plutôt pour du gros hacking, pour envoyer des messages personnalisés, ce genre de choses. Mais est-ce qu'il y a des... C'est quoi un peu pour toi les formes d'usage qui se démarquent dans tout ce que vous voyez ? Là, j'en parlais tout à l'heure avec un pote. Je pense que le concept des avatars, c'est un atome et c'est quasiment de l'ordre du texte,

[01:05:04] c'est juste une nouvelle manière de communiquer et tu vas avoir autant de vertical sur les sales, sur l'ads. Là, aujourd'hui, ce qui perce vraiment beaucoup, tu as des boîtes très verticalisées comme Icon, Arcades qui sont en train de nail le UDC ads et ils le font bien. Et ça, c'est un use case qui marche très bien. Nous, ce qu'on target plus, c'est plutôt les créateurs de contenu qui ont envie de créer des chaînes soit from scratch, soit ils ont déjà leur audience. On a des clients,

[01:05:33] une vidéo sur deux de leur contenu, ils le font et generated. vu que ça reste leur message, leur voix, tu ne vois quasiment pas et ça fonctionne. Tu as ça et là, on vient de sortir récemment. C'est leur voix ou tu bosses avec des Eleven Labs ? On est en partenariat avec Eleven Labs, soit tu peux utiliser ta voix clonée. Tu as un truc qui marche bien aussi, c'est le fait de cloner, le fait de de dubber son propre clone.

[01:06:03] Ça veut dire que si tu t'es tourné, si tu as été en studio et que tu fais des plans podcast très quali, make-up, light et tout. Comme là. Exactement. Tu peux réutiliser ces plans-là et du coup, refaire du contenu. Ça veut dire que tu pourrais être au Bahamas avec ton mojito, tu record avec ton micro et ça te fait une vidéo de toi en studio calé à Paris. Et ça, donc il y a plein de use cases. Il y a le, tu doubles ton propre clone, tu as des boîtes aussi

[01:06:33] qui prennent par exemple des vidéos existantes et qui viennent changer par exemple juste le hook. Ça, ça marche aussi. Vu que tu refais le visage, tu peux garder la bande son originelle, limite faire 2B 30 ou 50 hooks et tu génères des variantes de vidéos. Du coup, tu peux faire de la B-testing ce qui est très difficile à faire avec de la vidéo historiquement. Donc, il y a plein de use cases comme ça. Et après, les use cases qui marchent bien, on parle beaucoup à la presse en ce moment, c'est eux, ils ont un inventaire textuel, donc des articles.

[01:07:03] Et l'idée, c'est qu'ils n'ont pas la bande passante et le budget pour transformer ça en vidéo. Par contre, là, on leur donne un outil qui leur permet de prendre un AI actor qu'on a sur la plateforme, soit utiliser leur journaliste Bankable et de faire des shorts à moindre frais qui expliquent la nuit du jour, l'horoscope, etc. D'ailleurs, je te parlerai d'un truc après. Non, mais blaguez pas. OK. Donc, ça, c'est un peu les différents cas.

[01:07:32] Vous avez des gros clients aujourd'hui ? tu as parlé de médias. Vous bossez déjà avec des médias ? On a signé des pilotes. Je ne pourrais pas donner les noms parce que c'est conventionnel, mais on est en pilote avec cinq gros médias. Donc, c'est encore expérimental. On est plutôt en phase explorataire. On considère plutôt ça comme une side quest aujourd'hui parce qu'il y a beaucoup de questions dans l'équation, notamment la trust. Est-ce que les audiences des gros médias vont accepter ça ? Est-ce que l'AI avatar

[01:08:02] photoréalistique, ça fonctionne ? Est-ce qu'il ne faut pas passer par du non-photoréalistique parce que c'est possible aussi de faire quelque chose qui est un peu plus cartoonesque ? Donc, il y a plein de trucs. Donc, on est en phase d'exploration, mais on a une vraie traction au niveau des... Enfin, l'intérêt du top management des gros médias là-dessus. Et après, le plus gros de notre CA aujourd'hui, on a fait sur des créateurs de contenu. Donc là, par exemple, la semaine dernière, on a lancé le fait de pouvoir faire des AI influencers complètement de zéro. Et donc là, tu peux prompter, tu peux choisir,

[01:08:31] je veux une femme blonde avec mon logo qui porte tel vêtement, etc. Tu crées un peu ta mascotte. Et là, du coup, tu vas pouvoir faire de la pub pour ta boîte avec un AI avatar que tu as créé de toute pièce. Et on a sorti aussi la possibilité de pouvoir mettre cet avatar-là dans des situations différentes. Donc là, par exemple, on a des clients, ils ont des business d'immobilier à Dubaï. Ils font des shorts avec une AI influenceuse qui raconte leur business. Et après, il y a des b-rolls qu'on génère

[01:09:01] avec la fille dans certaines situations. Et ça, c'est encore très exploratoire, mais il y a plein de use cases. Et ça, nous, notre conviction globale, c'est que plus de 50% du contenu des réseaux d'ici 2-3 ans sera AI generated. je pense que c'est déjà, j'aimerais savoir le chiffre parce qu'il suffit d'aller sur TikTok aujourd'hui, il y a déjà beaucoup de contenu AI generated qui marche bien, souvent très humoristique. Je suis tombé sur des chaînes par exemple avec des chats ou des trucs comme ça, ça marche bien. Mais je pense vraiment que plus la technologie

[01:09:29] va être performante, plus ça va donner à des gens qui ont des idées de la créativité de créer des choses incroyables. Et pour revenir sur notre sujet de tout à l'heure et ça va reboucler un peu, aujourd'hui, c'est quelle proportion qui est générée tu vois via une API ou un MCP ? Je ne sais pas si vous avez un MCP déjà. On est en train de checker comment on va intégrer ça, notamment même juste pour donner la capacité à des élèves de parler avec notre app. Ça, ça peut être assez fou.

[01:10:00] On a quelques dizaines de clients app builders qui recréent des apps au-dessus de nous. Ou qui automatisent des choses avec du mec. Tu citais tout à l'heure le fait de remercier par exemple quelqu'un qui a un business qui a envie de personnaliser l'achat de sa formation. Il peut générer une vidéo personnalisée en disant « Hey, j'ai vu que tu as acheté mon produit, je te remercie, blablabla. » généralement, il l'automatise sur mec. On a des clients. Ou même de faire, tu vois, je pense,

[01:10:30] tu avais le grand truc à un moment donné dans la prospection qui était de faire un loom. Mais tu vois, sauf que tu t'aperçois, tu cliques sur le loom, en fait, tu arrives sur un loom qui est partagé à 250 personnes, pas du tout personnalisé. En fait, c'est ton hook, c'est, tu vois, « Hey,

[01:10:46] prevail. » ça donne un peu des idées d'usage. Trop bien. Pour toi, c'est quoi les gros challenges qui vous attendent ?

[01:11:16] Est-ce que ça va être de rester, entre guillemets, « on the edge » parce que ça bouge quand même très, très vite dans ton secteur ? Ou, je ne sais pas, comment tu vois les choses ? J'ai écrit un article il y a deux jours là-dessus. Je réfléchis beaucoup à, même d'un point de vue, en prenant du recul, sur comment analyser, qu'est-ce qu'il faut maximiser en ce moment, en tant qu'entrepreneur, quand tu build dans l'AI. Il y a beaucoup de débats sur le fameux terme « moat ». Donc, « moat », ça veut dire « défrontabilité ». Donc, c'est les « douves »

[01:11:45] de « est-ce que ton business, s'il est reproductible en deux semaines par un autre acteur, ton business vous rien ? » Et, il y a eu des débats, d'ailleurs, il y a deux ans, sur « est-ce que la défrontabilité va être sur la couche des modèles ? » Il y a même un mémo de Google qui avait l'IQ à l'époque. Et, en substance, c'était « on n'a pas de défrontabilité, même au PNI, il n'en a pas. Et, les LLM, c'est une course vers le coût de l'énergie. Ça, c'est une phrase de Marc Adersen

[01:12:15] qui dit, c'est « raise to the bottom of energy » et ça va devenir des commodités. Et, c'est déjà le cas sur le texte, c'est pas encore le cas sur la vidéo, par exemple, mais nous, notre thèse, c'est que ça va être le cas sur la vidéo, c'est déjà le cas sur le texte et, c'est-à-dire, au bout d'un moment, ça va se cristalliser sur le résultat. Sur l'image, c'est déjà plus ou moins craqué. tu as OpenAI qui a remis un peu un nouveau standard, mais les improvements de mid-journée aujourd'hui, entre du mid-journée et du flux, au final, c'est un peu bonnet blanc, blanc bonnet.

[01:12:46] Le sujet pour nous, c'est aujourd'hui, on a des boîtes un peu plus grosses sur le même space qui ont levé beaucoup d'argent sur le fait d'investir sur la layer 0 qui est le modèle fondationnel texte ou vidéo. Et ça, dès que tu veux faire du full body, parce que là, nous, on est focus sur la tête, dès que tu veux faire l'intégralité du full body, tu es obligé de faire un modèle fondationnel qui coûte au minimum 15-20 millions de dollars plus, et je pense, à mon avis,

[01:13:16] Sora VO2, ça se compte en centaines de millions de dollars. Donc, le sujet pour nous aujourd'hui, c'est où on doit se positionner et est-ce qu'on doit faire cette layer-là. C'est un vrai sujet aujourd'hui, moi, c'est mon sujet aujourd'hui, c'est ce que... Je pense qu'on va finir par le faire. Je pense que, par contre, ça va devenir beaucoup plus simple de le faire dans le futur, un peu à l'instar de DeepSight qui a réussi à faire beaucoup plus avec beaucoup moins de budget. Bon, il y a des débats, je pense que les chiffres sont un peu tronqués parce que ça ne va pas coûter 5 millions de dollars, mais je pense

[01:13:46] qu'ils ont burné beaucoup moins qu'au P&EI. l'itération des modèles et comment on rend aussi ce qu'on a déjà, efficient, stable, robuste, où tu peux truster le fait de faire du volume, etc. Donc, c'est un peu un mélange de continuer à faire la croissance, continuer à faire de la stabilité. Potentiellement, pour l'instant, on n'a pas de sujet de recrutement et je pense qu'on ambitionne pas

[01:14:15] de recruter 50-100 personnes d'un coup et je pense que le monde est en train de changer là-dessus. Je pense qu'on va avoir de plus en plus de boîtes de 20, 30, 50 personnes qui vont créer des business énormes. Curseur, mid-journée, toutes ces boîtes qui font 100 millions plus d'ARR, c'est des boîtes toutes petites. 100 millions de curseurs. Oui, 200 millions, c'est complètement fou. Ils sont pas sergés en un mois, ils sont doux. Oui. Lovable, pareil, Lovable 0, tout 30 millions en trois mois, c'est fou. Et ça, c'est le AI qui permet ces gains de productivité.

[01:14:45] Et ça, c'est un vrai sujet, nous en interne, ne pas augmenter sa productivité avec l'AI, c'est quasiment une faute lourde. Parce que si t'as un outil qui te permet de faire x10 sur ta productivité, bosse à un nouveau niveau, tu vas forcément détruire ton métier d'avant, mais step up. Et je vois beaucoup de boîtes, je parlais encore avec un petit CTO, ils sont encore frileux sur les sujets. Je me dis, mais vous êtes fous parce que si vous le gardez, les gens qui sont conservateurs sur ces sujets aujourd'hui

[01:15:14] vont se faire laminer dans 6 à 12 mois parce que t'auras des boîtes avec 95% de moins de workforce qui vont faire 10 fois mieux. Donc là, les challenges, ils sont multiples. C'est comment on navigue les itérations sur les nouveaux modèles, comment on continue à faire un bon produit. Parce que moi, ma conviction, c'est que la stickiness long terme et le mote, c'est la layer produit et tout ce qui va autour de ça. Donc le branding, la distribution, ce qui était le cas avant de tous les produits. en fait,

[01:15:43] on revient au cycle classique. Donc c'est plutôt ça, c'est comment maximiser ces KPI-là et comment bien inverser de manière saine. Trop cool. La question que je pose généralement à la fin, c'est est-ce que tu as une ressource à nous recommander ? Un livre, une vidéo ? Tu nous as déjà parlé de quelques... Je crois que j'ai déjà quelques citations à mettre dans les commentaires, mais si tu en as une dernière... Il y a un livre que j'ai lu il n'y a pas si longtemps que ça qui est...

[01:16:13] Pour les entrepreneurs qui s'appelle Build, qui a été écrit par Tony Fadel, qui a fait l'iPhone avec Steve Jobs, qui a fait après Nest, qui a vendu ça à Google. Et moi, c'est un bouquin qui a... Je pense que c'est un... Je ne sais pas si c'est un bon bouquin pour quelqu'un qui débute et qui n'a pas d'expérience, mais moi, c'est un bouquin qui a cristallisé tout ce que j'avais appris dans le milieu des startups ces dix dernières années. Et donc, c'est une leçon de pragmatisme. Il raconte comment il a fait l'iPhone avec deux personnes et après, tu scales.

[01:16:43] C'est vraiment un entrepreneur pragmatique, Tony Fadel. Et c'est assez complet parce qu'il parle du zero to one, du scaling, de la relation avec les investisseurs. Enfin, c'est un bouquin assez complet. Trop bien. Écoute, je le mettrai dans la description de l'épisode ainsi que le lien vers ton profil LinkedIn puisque tu m'as dit que tu avais publié il n'y a pas très longtemps. Yes. Super. Un grand merci, Brével. Merci à toi. À très bientôt. Ciao.

[01:17:20] Merci d'avoir écouté cet épisode de SaaS Connection jusqu'au bout. J'espère qu'il vous a plu et vous sera utile pour votre propre SaaS. Si c'est le cas, pensez à vous abonner pour ne pas manquer des prochains épisodes et laissez-nous un commentaire où 5 étoiles sera pas le podcast ou Spotify afin de donner plus de visibilité à ce podcast. Enfin, si vous avez des proches qui sont intéressés par le SaaS, n'hésitez pas à leur envoyer cet épisode. À bientôt.