Anthropic active la mémoire de Claude sur l’offre gratuite et lance un outil d’import pour attirer les utilisateurs de ChatGPT

Anthropic active la mémoire de Claude sur l’offre gratuite et lance un outil d’import pour attirer les utilisateurs de ChatGPT

Anthropic vient de rendre la “mémoire” de Claude accessible gratuitement et ajoute un outil d’import : une manœuvre simple en apparence, mais qui change la bataille des assistants IA sur un terrain très concret – vos habitudes, votre contexte, vos données.

Pendant des mois, changer de chatbot ressemblait à déménager sans cartons : on perdait ses préférences, ses projets en cours, ses consignes, ses routines. Avec l’arrivée de la mémoire sur l’offre gratuite, Anthropic réduit ce coût caché. Et quand le coût de sortie baisse, les parts de marché bougent.

A lire aussi :

La “mémoire” : le vrai prix d’un chatbot

Claude n’essaie pas seulement d’être “bon” : il veut devenir persistent, c’est-à-dire capable de retenir ce qui compte d’une session à l’autre. La mémoire n’est pas un gadget : c’est ce qui transforme un assistant en compagnon de travail. Concrètement, moins vous répétez vos préférences, plus vous gagnez du temps, et plus vous vous attachez à l’outil. Mais cette promesse a un revers : la mémoire devient aussi une forme de verrouillage. Si votre IA connaît vos styles, vos clients, vos gabarits de texte, vous hésiterez davantage à partir. C’est pour cela que rendre la mémoire gratuite est un signal fort : Anthropic accepte de la démocratiser pour accélérer l’adoption.

Cet ordinateur vivant avec des neurones humains à 32 200 € fait tourner Doom et Cortical Labs le vend déjà

Importer son contexte : la migration devient un “copier-coller”

L’autre pièce du puzzle, c’est l’outil d’import. Anthropic ne dit pas “oubliez tout et recommencez”, il dit : “ramenez votre historique”. Le mécanisme est volontairement simple : un prompt prêt à l’emploi à coller dans votre ancien chatbot, puis un copier-coller du résultat dans l’outil d’import de Claude. Ce n’est pas de la magie : c’est une méthode pour extraire un résumé structuré de vos préférences (ton, formats, contraintes, objectifs) et le recharger côté Claude. Résultat : vous ne “rééduquez” pas votre assistant pendant des semaines, vous le mettez à niveau en minutes. Pour les utilisateurs qui jonglent entre plusieurs projets, c’est un avantage immédiat.

A lire aussi :  Cet ordinateur vivant avec des neurones humains à 32 200 € fait tourner Doom et Cortical Labs le vend déjà

Réglages et contrôle : où ça se joue vraiment

La fonctionnalité se pilote dans les paramètres, dans un menu de “capacités”. Ce détail compte : une mémoire activable/désactivable, c’est déjà une forme de contrôle. Pour un public prudent, la question n’est pas “est-ce utile ?”, mais “qu’est-ce qui est retenu, et comment je l’efface ?”. Dans la pratique, ce type de mémoire fonctionne mieux quand elle retient des informations “stables” (préférences de style, contraintes récurrentes) plutôt que des détails sensibles. L’enjeu devient donc la granularité : une mémoire qui avale tout est anxiogène, une mémoire qui retient juste ce qui vous fait gagner du temps est séduisante. Anthropic mise sur cette perception de maîtrise.

Cathryn Hutton / The Verge
Cathryn Hutton / The Verge

Une course à l’adoption, pas une simple mise à jour

Le calendrier n’est pas neutre : Claude connaît une montée en visibilité portée par des outils orientés travail, dont Claude Code et des usages plus “collaboratifs”. Quand un produit progresse, l’étape suivante consiste à réduire les frictions d’entrée : rendre une fonction premium accessible à tous et faciliter l’onboarding. Dans le marché des assistants, la différence se fait de plus en plus sur l’expérience : vitesse, fiabilité, mais surtout continuité. L’utilisateur ne veut plus un chatbot “brillant” une fois : il veut un système qui comprend son contexte de façon durable. L’ouverture de la mémoire sur le gratuit est donc une stratégie d’acquisition plus qu’un cadeau.

A lire aussi :  AM4 a fait gagner AMD sans dominer en FPS et en 2026, AM5 doit prouver que ce modèle tient encore

Modèles plus forts : pourquoi la mémoire devient exploitable

Anthropic pousse aussi de nouveaux modèles, notamment Opus et Sonnet, annoncés comme plus efficaces sur des tâches concrètes : code, formulaires, tableurs, enchaînements d’étapes. C’est important, car la mémoire n’a de valeur que si le modèle sait s’en servir correctement. Un assistant qui “se souvient” mais qui exécute mal reste frustrant. À l’inverse, un modèle qui gère mieux les consignes, les documents et les workflows rend la mémoire immédiatement rentable. Pour les utilisateurs, ce n’est pas une discussion d’architecture : c’est une réalité simple – moins d’erreurs, moins de répétitions, plus de résultats.

Le point sensible : données, vie privée et confiance

Dès qu’on parle de mémoire, on parle de données. Et dès qu’on parle de données, on parle de confiance. Importer un historique d’un autre chatbot revient à matérialiser quelque chose que beaucoup oublient : ces outils ont déjà “appris” sur vous via vos échanges. Ici, le bon réflexe est pragmatique : ne pas importer tout et n’importe quoi. Importez ce qui relève de vos préférences professionnelles (formats, contraintes, méthodes), pas des éléments personnels inutiles. Et gardez une routine : vérifier, corriger, supprimer. Une mémoire utile est une mémoire sélective.

Les smartphones vont devenir plus chers sans prévenir en 2026 la pénurie de mémoire annonce une chute de 12,9 pour cent des ventes et un prix moyen qui grimpe de 14 pour cent

“Lignes rouges” : l’argument politique qui parle aux pros

Anthropic a aussi gagné de l’attention en affichant des positions publiques sur des “lignes rouges”, notamment sur la surveillance de masse et les armes létales autonomes. Peu importe que tout le monde soit d’accord : ce positionnement sert un objectif clair – rassurer un public pro qui veut des garde-fous. Dans un contexte où l’IA s’invite partout (entreprises, administrations, services), la perception éthique devient un facteur de choix. Pas le seul, mais un facteur. Et quand une entreprise se présente comme plus stricte sur les garde-fous, elle tente de gagner un avantage de crédibilité face à des concurrents perçus comme plus permissifs.

A lire aussi :  Cet ordinateur vivant avec des neurones humains à 32 200 € fait tourner Doom et Cortical Labs le vend déjà

Source : Anthropic

Laisser un commentaire