Sauter les liens

Du terminal au script : FileMaker 2025 rend le réglage fin de la LoRA utilisable au quotidien

LoRA Finetuning avec FileMaker 2025

Quiconque a essayé sérieusement d'entraîner son propre modèle LoRA en 2023 ou 2024 - que ce soit avec kohya_ss, Axolotl ou une autre chaîne d'outils basée sur PEFT - sait qu'il existe souvent un gouffre profond entre la théorie et la pratique. Sur le papier, cela semble simple : charger un modèle de base, préparer ses propres données d'entraînement, adapter les paramètres, et c'est parti. Dans la réalité, cela se termine souvent dans une jungle de versions de Python, d'erreurs CUDA, de bibliothèques incohérentes et de formats de mémoire erronés. On alterne entre safetensors, ckpt, GGUF ou plus récemment MLX, sans toujours savoir quel format est compatible - et pourquoi. Même de petites modifications dans la configuration peuvent faire échouer des cycles d'entraînement entiers, et celui qui veut utiliser un modèle dans un autre environnement se retrouve souvent confronté à la prochaine ronde de conversion.

C'est précisément dans cette situation que l'on commence à comprendre la véritable signification du terme "low-rank adaptation" : Non seulement parce qu'on adapte des modèles de bas rang, mais aussi parce qu'on devient soi-même humble - face à la complexité de ces systèmes. Et pourtant, c'est précisément cette méthode qui est aujourd'hui la clé pour adapter les grands modèles de langage de manière efficace, en économisant les ressources et en respectant les spécificités du domaine.

Aujourd'hui, Claris entre en scène avec FileMaker 2025, un environnement connu jusqu'à présent pour tout autre chose : des solutions de bases de données, des processus d'entreprise, des flux de travail clairement structurés. 

Et soudain, une action de script appelée tout simplement "Fine-Tune Model" y apparaît. Une commande qui mentionne le mot "LoRA" dans le même souffle que "FileMaker". Ceux qui ont passé ces dernières années à suivre des formations LoRA classiques se frottent inévitablement les yeux. Car la question est évidente : cela peut-il vraiment fonctionner - et si oui, à quel niveau ?

Cette curiosité est justifiée. En effet, alors qu'auparavant on passait des heures à manipuler la ligne de commande, FileMaker offre désormais la perspective d'un entraînement "en un clic" - directement dans un environnement qui contient de toute façon les données avec lesquelles on veut s'entraîner. Un changement de paradigme donc : on passe du laboratoire expérimental à la boîte à outils productive. Mais le scepticisme reste bien sûr de mise. Car si cette idée est charmante, la vraie question est la suivante : que se passe-t-il techniquement ? S'agit-il d'un véritable peaufinage LoRA à part entière ou d'une variante abstraite et simplifiée ? Et en quoi les résultats sont-ils qualitativement différents d'un entraînement réalisé avec des méthodes classiques ?

Avant de pouvoir en juger, il vaut la peine de jeter un bref coup d'œil en arrière - sur le principe même, sur l'idée derrière LoRA, qui nous a permis de repenser de grands modèles dans un espace réduit.

Vers les nouveaux Fonctionnalités d'IA de FileMaker 2025 Markus Schall a publié un article séparé sur son site web. L'article suivant traite du réglage fin de LoRA d'un modèle de langage directement à partir de FileMaker. Dans un prochain article, nous décrirons comment un modèle de langage peut être entraîné dans la pratique avec FileMaker.

Qu'est-ce que la LoRA au juste ? - Un bref rappel du principe

LoRA est l'abréviation de Low-Rank Adaptation, et ce nom décrit précisément la procédure. Il s'agit d'une technique dans laquelle un grand réseau neuronal n'est pas entièrement réentraîné, mais seulement adapté sous forme comprimée dans certaines matrices de poids. Concrètement, certaines couches du modèle sont dotées de petites matrices supplémentaires qui forment ce que l'on appelle des "adaptateurs". Pendant le réglage fin, ces adaptateurs apprennent de nouveaux modèles spécifiques à la tâche, sans modifier les poids initiaux du modèle. Cela présente deux grands avantages : premièrement, cela permet d'économiser de la mémoire et de la puissance de calcul ; deuxièmement, le modèle de base reste inchangé - on peut donc créer plusieurs réglages fins sur la même base, les combiner et les supprimer si nécessaire.

Cette idée est née à l'origine d'une nécessité. Une mise au point complète était tout simplement trop coûteuse. Le réentraînement d'un modèle comportant plusieurs milliards de paramètres nécessite non seulement un matériel puissant, mais aussi d'énormes quantités de données et un contrôle précis. LoRA, en revanche, a apporté une solution pragmatique : au lieu de modifier l'ensemble du réseau, on n'optimise qu'une poignée de poids supplémentaires - généralement un à deux pour cent du volume total. Ainsi, le réglage fin est soudain devenu réaliste pour les utilisateurs individuels, les start-ups et les groupes de recherche.

Au fond, la LoRA est un symbole du changement qu'a connu le développement de l'IA. Alors qu'auparavant, on s'entraînait à partir de zéro, on parle aujourd'hui d'adaptation : adapter les connaissances existantes plutôt que d'en imposer de nouvelles. C'est l'équivalent, pour les machines, de ce que l'on pourrait appeler l'expérience dans l'apprentissage humain - le modèle apprend à s'adapter à un nouvel environnement sans perdre son identité.

Un autre avantage de LoRA est sa modularité. Une fois entraîné, un adaptateur LoRA peut être chargé ou déchargé comme un module supplémentaire. On obtient ainsi des variantes spécialisées d'un modèle de base - par exemple un modèle de chat spécialisé dans les textes médicaux, un autre pour le langage juridique, ou encore un autre qui reproduit le style d'une entreprise particulière. Dans la pratique, le procédé s'est établi aussi bien pour les modèles de texte que pour les modèles d'image, les principes sous-jacents restant les mêmes : de petites adaptations différenciées plutôt que de grandes interventions globales.

Mais même si la méthode elle-même est élégante, sa mise en œuvre reste exigeante. L'environnement d'entraînement, la préparation des données et les bons hyperparamètres sont déterminants pour le succès ou l'échec. C'est précisément là qu'apparaît la différence cruciale entre les chaînes d'outils open source classiques comme Axolotl, LLaMA-Factory ou kohya_ss et la nouvelle solution intégrée de FileMaker 2025. Les deux utilisent la même idée mathématique - mais l'intègrent dans des contextes techniques et conceptuels totalement différents.
Et c'est là que notre comparaison intervient : en essayant de comprendre deux mondes qui parlent la même langue, mais qui pensent de manière très différente.

La voie classique - formation LoRA avec kohya_ss et PEFT

Celui qui suit la voie classique du Formations LoRA connaît le rituel : d'abord l'installation de Python, ensuite la bonne version de PyTorch, ensuite les pilotes NVIDIA adéquats - et à la fin, il y a toujours la même incertitude quant à savoir si tout s'harmonise. Kohya_SS, conçu à l'origine pour l'entraînement de modèles visuels, est devenu ces dernières années une sorte de solution universelle pour tous ceux qui voulaient créer des adaptateurs LoRA, que ce soit pour des images ou du texte. Sous le capot, le système utilise les mêmes principes que la bibliothèque PEFT de Hugging Face - mais dans une interface graphique plus confortable.

Le processus suit toujours le même modèle. On commence par un modèle de base, par exemple un dérivé de Llama ou de Mistral. Ensuite, on prépare les données d'entraînement - généralement sous forme de fichiers JSONL avec des structures de rôles ("user" et "assistant"), mais parfois aussi sous forme de simples listes de questions-réponses. Ensuite, il faut définir les paramètres : Taux d'apprentissage, rang LoRA, couche d'adaptation, taille du lot, optimiseur, répertoires cibles. Cette phase sépare déjà les bricoleurs des patients, car chacun de ces paramètres peut déterminer le succès ou l'échec.

Ce qui suit est la phase d'entraînement proprement dite - souvent accompagnée d'un sentiment oscillant entre espoir et scepticisme. Pendant que le GPU calcule pendant des heures, on observe avec curiosité la courbe de perte, et pourtant on ne sait jamais vraiment si le résultat final est vraiment meilleur qu'avant. Parfois, l'entraînement se termine par un message d'erreur, parfois par un fichier qui ne peut plus être chargé par la suite. Et si l'on y parvient, le prochain défi nous attend : convertir le modèle fini en un format utilisable dans d'autres environnements. Un adaptateur disponible sous forme de safetensors doit souvent encore être converti en GGUF ou MLX, selon la plateforme cible. Ce faisant, il arrive que des tenseurs soient perdus, et si l'on n'a pas de chance, on se retrouve à la case départ.

Malgré tous ces obstacles, la voie classique possède un certain attrait. Elle est honnête, transparente, et on sent à chaque étape ce qui se passe en arrière-plan. On voit les poids, on peut modifier les paramètres un par un, on a le contrôle total. Et c'est précisément ce qui a longtemps fait le charme de cet univers : il récompensait ceux qui se frayaient un chemin dans la jungle. Celui qui avait réussi à entraîner pour la première fois son propre modèle LoRA avait l'impression d'avoir gravi un sommet.

Mais à un moment donné, la question se pose de savoir si cet effort est encore d'actualité. Car l'objectif reste le même - créer un modèle qui s'adapte à un langage, un style ou un domaine d'activité spécifique. La méthode est solide, mais le chemin pour y parvenir est souvent ardu. Et c'est ainsi que grandit le désir d'un environnement dans lequel tout cela n'est plus un projet de week-end, mais un outil de travail.

FileMaker 2025 - Réglage fin de la LoRA par script

Avec FileMaker 2025 Claris a osé franchir ce pas - et l'a fait, si l'on peut dire, avec une certaine élégance. Pour la première fois, un magazine d'affaires classique est publié.Base de données une commande qui porte le nom de "Fine-Tune Model". Derrière cette simple expression se cache une idée qui mérite d'être soulignée : la formation LoRA, qui était jusqu'à présent un sujet réservé aux spécialistes, est directement intégrée dans le flux de travail quotidien.

Techniquement, cela se fait par le biais de ce que l'on appelle le modèle AI Serveurqui fonctionne localement sur les systèmes Apple Silicon et se base sur le framework MLX d'Apple. Ce système prend en charge toutes les étapes de calcul, du chargement du modèle de base à la création de la couche d'adaptation. L'utilisateur doit simplement définir quelles données doivent être entraînées et peut le faire de deux manières : soit par le biais d'une application FileMaker existante, soit par l'intermédiaire d'une application de modélisation.Tableau - par exemple une collection de demandes de clients, de dialogues d'assistance ou de fragments de texte - ou via un fichier JSONL externe au format chat. Ainsi, il n'est plus nécessaire de préparer les données en dehors du système, ce qui est coûteux ; on travaille directement avec les enregistrements qui sont de toute façon disponibles dans l'entreprise.

Le choix des paramètres a lui aussi été considérablement allégé. Au lieu de vingt vis de réglage, il n'y en a que quelques-unes, mais elles sont décisives - max_steps, learning_rate, batch_size, et lora_layers. Les autres valeurs sont judicieusement prédéfinies dans le moteur. Cette réduction n'est pas un inconvénient, mais l'expression d'une philosophie de conception claire : FileMaker ne doit pas devenir une plate-forme de recherche, mais un outil qui fournit des résultats reproductibles et stables.

Le réglage fin lui-même se déroule alors comme n'importe quelle autre commande de script : L'utilisateur appelle "Fine-Tune Model", transmet le nom et l'emplacement du modèle, et FileMaker transmet le reste au serveur de modèles AI. L'entraînement se fait entièrement en local - sans cloud, sans API étrangère, sans risque pour la protection des données. Le résultat est un nouveau modèle préfixé fm-mlx-, qui peut être utilisé directement dans l'environnement FileMaker pour la génération de texte, la classification ou les fonctions de dialogue.

Déroulement nettement plus simple du LoRA Traning avec FileMaker

Ceux qui ont connu l'expérience classique de la LoRA seront probablement déconcertés lors de leur premier passage : pas de terminal, pas de flot de logs, pas de messages d'erreur cryptiques. Au lieu de cela, une barre de progression propre et un résultat reproductible. Bien sûr, on peut critiquer le fait que l'on a moins de contrôle - pas d'accès à des optimiseurs exotiques, pas d'expérimentation avec QLoRA ou layer freezing - mais c'est justement là que le bât blesse. Claris ne s'adresse pas aux chercheurs, mais aux utilisateurs qui veulent travailler de manière productive avec leurs propres données.

Le caractère de l'entraînement LoRA s'en trouve fondamentalement modifié. Ce qui était un processus expérimental devient un processus planifiable. Les entreprises pourront à l'avenir adapter leurs propres modèles linguistiques internes sans devoir exploiter elles-mêmes l'infrastructure. Les données restent en interne, les processus sont documentés et les résultats peuvent être versionnés et automatisés comme n'importe quel autre composant FileMaker.

Bien entendu, le scepticisme reste de mise ici aussi. Le serveur de modèles AI est encore lié à Apple-Silicon et il manque encore un accès approfondi aux paramètres. Mais la voie est claire : là où il fallait auparavant des semaines de configuration, il suffit désormais de quelques minutes. Et là où il fallait auparavant passer péniblement d'un format de mémoire à un autre, il suffit aujourd'hui d'une commande de script.

FileMaker a ainsi réussi quelque chose de rare sur la scène de l'IA : il n'a pas essayé de "faire plus", mais de "faire moins" - et ce, d'une manière qui souligne la force réelle de la plate-forme. La structure plutôt que le chaos, l'intégration plutôt que la fragmentation.

Comparaison pratique - MLX-LoRA vs. PEFT-LoRA

Si l'on met les deux approches en parallèle, on remarque tout d'abord qu'elles font fondamentalement la même chose - adapter un modèle linguistique existant à l'aide de poids adaptateurs supplémentaires. Mais le chemin pour y parvenir ne pourrait guère être plus différent. Alors que le monde open source conçoit LoRA comme un système modulaire flexible, Claris le voit comme un élément d'un flux de travail clairement défini. Les uns expérimentent avec chaque composant, les autres les intègrent de manière transparente dans un environnement fermé.

L'approche classique PEFT (Parameter-Efficient Fine-Tuning) - par exemple via Axolotl, LLaMA-Factory ou kohya_ss - permet de contrôler chaque détail du processus d'apprentissage. On peut déterminer de manière ciblée quelles couches sont adaptées, quels taux d'apprentissage sont utilisés, comment les gradients sont traités, comment la mémoire est économisée ou comment les tailles des lots sont modifiées. Cette liberté est puissante, mais elle exige des connaissances spécialisées et du doigté. Même de petites erreurs dans la configuration conduisent à des modèles inutilisables ou à des exécutions non convergentes. L'utilité réside dans le caractère scientifique : celui qui veut comprendre pourquoi un modèle se comporte de telle manière trouvera ici la meilleure approche.

Il en va tout autrement de FileMaker 2025, où LoRA n'est pas considéré comme un outil de recherche, mais comme une fonction opérationnelle - une partie d'un système qui traite les informations plutôt que de les explorer. La nouvelle commande de script abstrait de nombreux détails techniques sans dénaturer l'idée de base. Le réglage fin s'effectue en arrière-plan sur le serveur de modèles AI, contrôlé par quelques paramètres simples. Tout ce qui se trouvait auparavant dans des fichiers YAML ou des commandes shell est coulé dans un script FileMaker familier. Le résultat est moins spectaculaire, mais plus stable - un processus reproductible qui peut être documenté, automatisé et intégré dans la logique de l'entreprise.

On pourrait décrire la différence ainsi : La méthode classique est comme le vissage d'un moteur dont chaque joint est visible et chaque réglage manuel. FileMaker, en revanche, a habillé le moteur et placé un bouton de démarrage à côté. Le résultat est peut-être moins excitant pour les bricoleurs, mais il démarre de manière fiable.

En ce qui concerne les résultats, la qualité dépend dans les deux cas des mêmes facteurs : la qualité des données, l'adéquation du taux d'apprentissage et le modèle de base. Les différences proviennent davantage de la nature de l'environnement que de la méthode elle-même. FileMaker travaille par nature dans des ensembles de données fermés - c'est-à-dire typiquement des corpus spécifiques à une application ou à une entreprise. Cela signifie des volumes de données plus propres, mais plus petits. Dans le monde open source, en revanche, on utilise généralement de grands ensembles de données mixtes, souvent d'origines très diverses. Il peut en résulter d'une part des résultats plus robustes, d'autre part des résultats plus incohérents.

Le constat est donc clair : FileMaker fournit un modèle utilisable de manière stable en moins de temps, tandis que les formations basées sur PEFT offrent plus de potentiel, mais aussi plus d'incertitude. Par conséquent, ceux qui veulent un processus reproductible qui s'intègre dans leur travail quotidien trouveront dans FileMaker une solution d'une maturité inattendue. En revanche, ceux qui souhaitent expérimenter, comprendre et aller au-delà des limites des paramètres standard restent mieux lotis dans le monde de l'open source.

Différences de qualité - ce qui compte vraiment

Dans toutes les discussions sur les frameworks, les formats et les commandes, il ne faut pas oublier une chose : La qualité d'un réglage fin LoRA n'est pas déterminée par l'outil, mais par ce qu'on lui donne à manger. Un ensemble de données bien structuré, contenant des invites clairement formulées et des réponses réalistes, a plus d'impact sur le résultat final que n'importe quel taux d'apprentissage ou taille de lot. Cela vaut aussi bien pour les formations FileMaker que pour les exécutions basées sur PEFT.

Il vaut néanmoins la peine d'examiner les différences qui ont une influence indirecte sur la qualité. Dans l'environnement classique, on travaille généralement avec des volumes de données plus importants, ce qui implique une certaine variabilité. Les modèles qui sont entraînés sur de tels ensembles de données ont tendance à répondre de manière plus large, mais moins précise. Ils développent souvent une certaine "largeur de langage" qui est impressionnante dans les applications génériques, mais qui peut conduire à l'arbitraire dans des environnements spécialisés. FileMaker, en revanche, favorise le contraire : ici, les données sont sélectionnées de manière ciblée, curatées, souvent directement à partir d'une table qui reflète le contexte commercial réel. Il en résulte une focalisation naturelle - le modèle n'apprend pas tout, mais seulement ce qui est pertinent.

Le processus encapsulé assure une meilleure stabilité

Un autre point est la reproductibilité. Les formations LoRA classiques se déroulent généralement dans des environnements qui changent rapidement en raison des mises à jour de versions, des pilotes GPU ou des modifications de bibliothèques. Une formation qui fonctionne aujourd'hui peut échouer demain. FileMaker rompt avec cette incertitude en encapsulant l'ensemble du processus. L'AI Model Server utilise un temps d'exécution MLX clairement défini, qui ne dépend ni de l'utilisateur ni de la connexion Internet. Il en résulte certes moins de flexibilité, mais aussi plus de stabilité - et c'est précisément ce qui est essentiel dans les scénarios de production.

L'évaluation des résultats diffère également. Dans le monde de l'open source, on mesure souvent la qualité avec des métriques quantitatives - perplexité, précision, score BLEU. FileMaker, en revanche, travaille plus silencieusement : le résultat se voit au quotidien, lorsqu'un système réagit soudain avec plus de précision à des questions internes ou lorsqu'un texte généré automatiquement sonne plus naturellement. Il s'agit de différences qualitatives, basées sur l'expérience - la manière dont un modèle réagit à des termes familiers, la manière dont il absorbe la tonalité spécifique à l'entreprise ou la manière dont il "hallucine" moins face à des termes techniques.

Enfin, il ne faut pas sous-estimer le facteur temps. Une formation PEFT avec Axolotl ou kohya_ss peut facilement prendre plusieurs heures, voire plusieurs jours, préparation et suivi compris. La formation FileMaker, en revanche, peut être déclenchée en quelques minutes et exécutée parallèlement à d'autres tâches. Cette rapidité change la manière de travailler avec les systèmes d'IA : D'un projet technique, on passe à un processus de tous les jours.

Au final, il s'avère que la différence qualitative réside moins dans les performances du modèle que dans sa disponibilité et son utilisabilité. Les LoRA FileMaker sont souvent plus petits, plus ciblés, plus stables - et c'est précisément ce qui les rend précieux pour les processus de travail réels. En revanche, les LoRA PEFT peuvent être plus profonds, plus adaptables et, à la limite, plus performants s'ils sont correctement entraînés. C'est comme si l'on comparait une machine de précision à un laboratoire universel : Les deux ont leur raison d'être, mais ils servent des objectifs différents.

Et c'est peut-être là que réside la leçon de cette nouvelle évolution - que la qualité n'est pas seulement une question de chiffres, mais de fiabilité, de clarté et de capacité à mettre les connaissances en perspective de manière ordonnée. FileMaker 2025 montre que même dans un monde qui regorge d'expériences, la solution réfléchie et intégrée produit parfois de meilleurs résultats.

Claris FileMaker AI script steps

Portabilité et pérennité - entre deux mondes

Lorsque l'on observe aujourd'hui le paysage des formats de modèles, on a presque l'impression de se retrouver dans les premières années de l'informatique, lorsque chaque système parlait sa propre langue. Ce que les formats de disquettes étaient autrefois, les formats de tenseurs le sont aujourd'hui : GGUF, safetensors, ckpt, MLX. Chaque framework, chaque moteur semble entretenir sa propre logique. Et de même que l'on avait autrefois besoin de câbles adaptateurs pour passer de Windows à Mac, on a aujourd'hui besoin de scripts de conversion - tantôt de MLX à GGUF, tantôt l'inverse.

FileMaker 2025 met délibérément les points sur les i. Le nouveau AI Model Server utilise exclusivement MLX comme backend - le framework qu'Apple a développé pour sa propre Silicon. MLX est encore jeune, mais conceptuellement fort : il permet l'entraînement, l'inférence et le réglage fin LoRA dans un format de mémoire cohérent, optimisé pour les noyaux neuronaux des puces M. La décision de Claris d'adopter ce système n'est donc pas un hasard. Elle suit la philosophie de créer un environnement stable et contrôlé qui peut être exploité entièrement localement.

Cela a des conséquences sur la portabilité. Un modèle LoRA que l'on entraîne dans FileMaker porte automatiquement le préfixe fm-mlx- et peut être utilisé directement dans le runtime MLX. En revanche, si l'on souhaite l'utiliser dans un autre environnement - par exemple dans LM Studio, Ollama ou llama.cpp - il faut faire un détour par une conversion. Celle-ci est techniquement possible, mais pas encore triviale. Il existe certes les premiers outils capables de transférer des modèles MLX vers GGUF, mais il manque encore un pont standardisé. La raison n'est pas tant mathématique qu'organisationnelle : MLX est centré sur Apple, tandis que GGUF est axé sur la communauté. Les deux systèmes se développent rapidement, mais indépendamment l'un de l'autre.

Dans la pratique, cela signifie que celui qui travaille avec FileMaker reste dans un premier temps au sein d'un écosystème fermé mais stable. Pour de nombreux cas d'application, ce n'est pas un inconvénient, bien au contraire. La certitude qu'un modèle est entraîné, stocké et utilisé dans le même environnement présente des avantages qui vont bien au-delà de la commodité technique. Elle concerne les questions de traçabilité, de souveraineté des données et de longévité. En effet, alors que les frameworks open source vivent souvent dans des cycles d'innovation courts, FileMaker est traditionnellement synonyme de pérennité. Les modèles qui sont entraînés aujourd'hui seront toujours exécutables sous la même forme dans deux ou trois ans - et dans le contexte de l'entreprise, c'est une valeur qu'il est difficile de surestimer.

Malgré tout, le désir d'interchangeabilité restera. Il serait envisageable - et presque inévitable à long terme - que Claris propose à l'avenir des fonctions d'exportation, par exemple vers GGUF ou ONNX. Cela permettrait d'utiliser des modèles en dehors du monde FileMaker sans perdre leur essence. Il est tout aussi probable que MLX lui-même s'intègre davantage dans le monde open source et que les barrières entre les environnements Apple et non-Apple disparaissent peu à peu.

Mais pour l'instant, FileMaker repose sur des bases clairement définies : la stabilité plutôt que la diversité, la simplicité plutôt que la surcharge. C'est une décision qui ne plaira pas à tout le monde, mais qui a du sens à long terme. Car dans un monde où tout est possible en même temps, ce qui fonctionne de manière fiable retrouve son poids.

Conclusion - De l'expérience à l'outil

Au final, on se rend compte qu'avec sa commande LoRA, FileMaker 2025 n'a pas simplement introduit une nouvelle fonction, mais a donné un signal. Un signal indiquant que la formation à l'IA n'est plus un privilège de spécialistes, mais qu'elle peut faire partie des processus commerciaux normaux. L'intégration de LoRA dans un système qui, depuis des décennies, est synonyme de stabilité, de traçabilité et de convivialité, marque un tournant - non pas dans la recherche, mais dans la pratique.

L'apprentissage classique de la LoRA, que ce soit avec kohya_ss ou PEFT, gardera sa place. Il restera le royaume des développeurs, des chercheurs et des bricoleurs - de ceux qui veulent comprendre comment les modèles se comportent en détail, qui veulent considérer chaque matrice de poids individuellement. Cette ouverture a sa valeur, elle est la base du progrès. Mais le prix à payer est l'effort, l'incertitude et une certaine fragilité.
FileMaker, en revanche, choisit l'autre voie : il réduit la complexité à l'essentiel et transforme une procédure compliquée en une routine reproductible. Le réglage fin devient une commande de script, le modèle fait partie d'une base de données et l'IA devient un outil parmi d'autres. Ainsi, la technologie ne devient pas plus petite, mais plus tangible. Elle perd son caractère expérimental et gagne en utilité au quotidien.

La différence qualitative ne se manifeste pas dans la puissance de calcul ou l'étendue des paramètres, mais dans l'attitude. Alors que de nombreuses plates-formes d'IA inondent l'utilisateur d'options, Claris suit une voie plus silencieuse - celle de l'intégration. Tout se passe là où se trouvent de toute façon les données. Il ne s'agit pas d'une astuce technologique, mais de l'expression d'une philosophie : les processus vont ensemble, pas les uns à côté des autres.

C'est peut-être là le véritable progrès - que la recherche constante de nouvelles possibilités soit enfin redevenue un outil que l'on peut comprendre, utiliser et contrôler. FileMaker 2025 place LoRA là où il doit être : entre les mains de ceux qui travaillent avec les données, et pas seulement dans les laboratoires de ceux qui les étudient.

Et c'est ainsi que la boucle est bouclée : de la fenêtre chaotique du terminal aux premiers sons fins expérimentaux, jusqu'à la commande de script qui fait la même chose - mais de manière propre, structurée et compréhensible. Un changement discret, mais important. Car parfois, le monde ne change pas grâce à ce qui est réinventé, mais grâce à ce qui fonctionne enfin simplement.

Dans un prochain article, nous décrirons comment un modèle de langage peut être entraîné dans la pratique à l'aide d'un exemple de script avec FileMaker.


Foire aux questions

  1. Qu'est-ce que LoRA exactement et à quoi sert-il dans l'entraînement des modèles linguistiques ?
    LoRA est l'abréviation de Low-Rank Adaptation. Il s'agit d'une méthode dans laquelle seule une petite partie des paramètres du modèle est adaptée afin d'adapter un grand modèle linguistique à des tâches ou des styles d'écriture spécifiques. Au lieu de modifier des milliards de poids, des petites matrices supplémentaires ("adaptateurs") sont entraînées. Cela permet d'économiser de la mémoire, du temps et de la puissance de calcul. Le modèle de base reste inchangé, ce qui rend les modèles LoRA particulièrement flexibles et économes en ressources.
  2. Quelle est la différence entre une formation FileMaker-LoRA et une formation PEFT classique avec Axolotl ou kohya_ss ?
    Au fond, pas tant que ça - les deux utilisent la même idée mathématique. La différence réside dans l'environnement. Les formations PEFT sont dispensées dans des frameworks ouverts avec de nombreuses vis de réglage, généralement via des bibliothèques Python. FileMaker, en revanche, intègre la méthode dans son AI Model Server. La formation s'effectue localement via MLX sur des systèmes Apple Silicon et est envoyée par Script de la recherche. L'accent est mis ici sur la stabilité et l'intégration plutôt que sur la liberté de recherche.
  3. Qu'est-ce que le serveur de modèles AI dans FileMaker 2025 ?
    AI Model Server est un composant local qui fournit, entraîne et exécute des modèles de texte - entièrement sur du matériel Apple Silicon. Il constitue la base technique de toutes les fonctions d'IA dans FileMaker, y compris la génération de texte, l'intégration et le réglage fin. Cela permet à une entreprise d'utiliser des modèles d'IA sans avoir à transférer des données vers des clouds externes.
  4. Comment se déroule concrètement une formation LoRA dans FileMaker 2025 ?
    L'utilisateur appelle la nouvelle commande Fine-Tune Model dans le script. L'entrée est soit une table dans la base de données FileMaker (par exemple avec des invites et des réponses), soit un fichier JSONL externe avec une structure de chat. L'entraînement démarre alors localement via le serveur de modèles AI. Une fois terminé, un nouveau modèle est créé avec le préfixe fm-mlx-..., qui peut être utilisé immédiatement dans des scripts ou des modèles.
  5. Quels sont les paramètres qui peuvent être définis lors de la formation FileMaker ?
    FileMaker permet de cibler un petit nombre de paramètres, mais ceux-ci sont déterminants :
    - max_steps - Nombre d'étapes d'entraînement
    - learning_rate - Taux d'apprentissage
    - batch_size - Taille des patchs de formation
    - lora_layers - Nombre de couches d'adaptateurs
    Cela permet de garder la formation claire, sans risque de configurations erronées.
  6. Quels sont les avantages de la formation via FileMaker par rapport aux outils classiques ?
    Le principal avantage réside dans l'intégration. On travaille directement avec les données qui sont de toute façon disponibles dans le système et on s'épargne le setup, les variables d'environnement, l'installation de paquets ou les configurations GPU. De plus, tout reste local et reproductible. Pour les entreprises, c'est un argument décisif - protection des données, traçabilité et facilité de maintenance.
  7. La qualité de la LoRA FileMaker est-elle inférieure à celle d'une LoRA PEFT ?
    Pas fondamentalement. La méthode sous-jacente est identique. Les différences proviennent de la taille de l'ensemble de données, du choix des paramètres et de l'évaluation. FileMaker s'appuie sur des valeurs par défaut stables et des ensembles de données structurés, tandis que les configurations PEFT offrent une plus grande liberté d'expérimentation. Dans de nombreux cas, FileMaker obtient même des résultats plus cohérents, car moins de variables sont sujettes aux erreurs.
  8. Peut-on s'entraîner avec FileMaker sur des modèles de base plus grands, par exemple Llama 3 ou Mistral ?
    Oui, tant que le modèle de base est au format MLX et qu'il est pris en charge par AI Model Server. FileMaker est optimisé pour les modèles basés sur le texte qui fonctionnent localement sur les puces Apple Silicon. Les modèles très volumineux sont toutefois limités par la capacité de la RAM et du GPU - la plupart du temps, les modèles jusqu'à environ 8 à 14 milliards de paramètres conviennent.
  9. Puis-je utiliser un modèle formé avec FileMaker en dehors de FileMaker ?
    Actuellement, seulement avec des restrictions. Le modèle est disponible au format MLX et est destiné directement au serveur de modèles AI. Pour l'exportation vers d'autres formats (par ex. GGUF, ONNX), il existe des premiers outils de conversion, mais ils sont encore expérimentaux. Claris pourrait à l'avenir prendre officiellement en charge cette fonction.
  10. Quelle est la configuration matérielle requise pour la formation à FileMaker ?
    Un Mac équipé d'une puce Apple Silicon (M1, M2, M3 ou plus récent) est nécessaire. La formation utilise le Neural Engine et les unités GPU de la puce. Les Mac Intel ne sont pas pris en charge. Pour les ensembles de données plus importants, il est recommandé d'utiliser au moins 16 Go de RAM, ou mieux, 32 Go ou plus.
  11. Qu'en est-il de la protection des données et de la sécurité lors de la formation FileMaker ?
    La formation se déroule entièrement en local. Aucune donnée n'est transmise à des tiers, aucune API cloud n'est utilisée. Pour les entreprises qui travaillent avec des données confidentielles ou personnelles, c'est un avantage décisif par rapport aux services d'IA externes.
  12. Puis-je utiliser plusieurs modèles en même temps dans FileMaker ?
    Le serveur de modèles AI prend actuellement en charge un modèle à la fois. Il est toutefois possible de créer autant d'affinités que l'on veut et de les charger ou décharger selon les besoins. Cette limite sert à la stabilité et à la planification du système.
  13. Quelle est la différence de formation entre FileMaker et LoRA classique ?
    Il est considérable. Alors qu'une configuration PEFT classique nécessite souvent des heures ou des jours de préparation - installation, dépendances, tests - FileMaker est prêt à démarrer en quelques minutes. Le processus d'entraînement lui-même est également plus rapide, car MLX fonctionne très efficacement sur Apple-Silicon. Cela permet d'économiser du temps et des nerfs, même si l'on perd un peu de contrôle.
  14. Quels types de données textuelles se prêtent le mieux à l'entraînement ?
    L'idéal est de disposer de données structurées, similaires à des dialogues : Demandes de clients, entretiens d'assistance, bases de connaissances internes, FAQ ou textes spécialisés. Il est important que les données soient clairement formulées et qu'elles aient un modèle reconnaissable. LoRA n'apprend pas les "contenus", mais les structures linguistiques et contextuelles - la qualité l'emporte sur la quantité.
  15. Comment évaluer la qualité d'un modèle FileMaker-LoRA ?
    Pas avec des métriques abstraites, mais dans la pratique. On vérifie si le modèle répond de manière cohérente aux questions internes, s'il utilise correctement les termes techniques et si le ton correspond au style souhaité. FileMaker permet d'effectuer des tests comparatifs simples, par exemple à l'aide de scripts qui envoient des invites à différents modèles et enregistrent les réponses.
  16. Est-il possible de supprimer ou d'écraser un modèle FileMaker-LoRA ?
    Oui, les modèles finement ajustés peuvent être gérés, supprimés ou remplacés dans la console d'administration du serveur de modèles AI. Comme les modèles de base restent inchangés, le risque est minime. On peut s'entraîner à nouveau à tout moment sans perdre le point de départ.
  17. Comment FileMaker se comporte-t-il par rapport aux réglages fins du cloud chez OpenAI ou Anthropic ?
    FileMaker offre un contrôle local, tandis que les services en nuage s'entraînent généralement côté serveur et renvoient les résultats via l'API. L'inconvénient du cloud : des coûts élevés, une protection des données limitée et pas d'accès direct au modèle. FileMaker crée l'inverse - souveraineté totale des données, pas de dépendance vis-à-vis de tiers, mais justement limité au matériel Apple.
  18. Quelle est la stabilité de MLX en tant que plate-forme pour la formation LoRA ?
    MLX est encore jeune, mais il est techniquement au point. Il a été spécialement développé par Apple pour les réseaux neuronaux sur puces M et offre des performances étonnamment élevées pour une faible consommation d'énergie. Associé à FileMaker, il apparaît comme une base solide pour les applications d'IA locales, même si le soutien de la communauté est actuellement moins important que pour PyTorch.
  19. FileMaker prendra-t-il en charge l'exportation vers des formats ouverts à l'avenir ?
    C'est probable. Ces dernières années, Claris a souligné à plusieurs reprises sa volonté de soutenir les standards ouverts à long terme. Une exportation vers GGUF ou ONNX serait la prochaine étape logique pour intégrer les formations FileMaker dans des environnements externes (par ex. LM Studio ou Ollama). Cela n'a pas encore été annoncé officiellement, mais c'est techniquement faisable.
  20. Est-ce que cela vaut la peine de passer à FileMaker-LoRA pour les utilisateurs expérimentés de PEFT ?
    Cela dépend de l'objectif. Si l'on veut faire des recherches approfondies, comparer des métriques ou tester ses propres architectures, il vaut mieux rester avec Axolotl ou LLaMA-Factory. En revanche, ceux qui ont besoin de formations stables et répétables dans un environnement contrôlé - par exemple pour les assistants internes, le langage technique ou l'automatisation des processus - trouveront dans FileMaker une solution remarquablement élégante.

Laisser un commentaire

Partager cette page :

Un logiciel ERP aussi flexible que votre entreprise.
Nous nous ferons un plaisir de vous conseiller.

Logiciel ERP personnalisable pour Mac, Windows et iOS.

Vous êtes ici : FileMaker 2025 : Fine tuning de la LoRA par script et MLX