Iedereen die serieus heeft geprobeerd om zijn eigen LoRA-model in 2023 of 2024 te trainen - of dat nu met kohya_ss, Axolotl of een andere op PEFT gebaseerde toolchain is - weet dat er vaak een diepe kloof gaapt tussen theorie en praktijk. Op papier klinkt het eenvoudig: laad een basismodel, bereid je eigen trainingsgegevens voor, pas de parameters aan en je kunt aan de slag. In werkelijkheid eindigt het vaak in een jungle van Python-versies, CUDA-fouten, inconsistente bibliotheken en foutieve geheugenformaten. Je schakelt tussen safetensors, ckpt, GGUF of, recenter, MLX, zonder altijd te weten welk formaat momenteel compatibel is - en waarom niet. Zelfs kleine veranderingen in de setup kunnen hele trainingsruns laten crashen, en als je een model in een andere omgeving wilt gebruiken, word je vaak geconfronteerd met de volgende conversieronde.
Het is precies in deze situatie dat je de ware betekenis van de term "low-rank adaptatie" begint te begrijpen: Niet alleen omdat je modellen met een lage rangorde aanpast, maar omdat je zelf nederig wordt - gezien de complexiteit van deze systemen. En toch is het precies deze methode die de sleutel vormt tot het aanpassen van grote taalmodellen op een efficiënte, resourcebesparende en domeinspecifieke manier.
Nu betreedt Claris het podium met FileMaker 2025 - een omgeving die voorheen bekend stond om heel andere dingen: databaseoplossingen, bedrijfsprocessen, duidelijk gestructureerde workflows.
En plotseling verschijnt daar een scriptstap die simpelweg "Model verfijnen" heet. Een commando dat het woord "LoRA" in één adem noemt met "FileMaker". Iedereen die de afgelopen jaren klassieke LoRA-trainingen heeft gevolgd, wrijft zich onvermijdelijk in de ogen. Want de vraag ligt voor de hand: kan dit echt werken - en zo ja, op welk niveau?
Deze nieuwsgierigheid is gerechtvaardigd. Want waar men vroeger urenlang aan de commandoregel zat te prutsen, biedt FileMaker nu het vooruitzicht om te trainen "met een muisklik" - rechtstreeks in een omgeving die al de gegevens bevat waarmee u wilt trainen. Een paradigmaverschuiving: weg van het experimentele laboratorium naar een productieve toolbox. Maar scepsis blijft natuurlijk op zijn plaats. Want hoe charmant dit idee ook is, de echte vraag is: wat gebeurt er technisch? Is het een echte, volwaardige LoRA fine-tuning of een geabstraheerde, vereenvoudigde versie? En hoe verschillen de resultaten kwalitatief van een training met traditionele methoden?
Voordat we dit kunnen beoordelen, is het de moeite waard om even terug te blikken - op het principe zelf, op het idee achter LoRA, dat ons in staat heeft gesteld om grote modellen te heroverwegen in een kleine ruimte.
Naar de nieuwe AI-functies van FileMaker 2025 Markus Schall heeft een apart artikel gepubliceerd op zijn website. Het volgende artikel gaat nu over het direct vanuit FileMaker fine-tunen van een taalmodel door LoRA. In het volgende artikel beschrijven we hoe een taalmodel in de praktijk kan worden getraind met FileMaker.
Wat is LoRA eigenlijk? - Een kort overzicht van het principe
LoRA staat voor Low-Rank Adaptation, en deze naam beschrijft de methode precies. Het is een techniek waarbij een groot neuraal netwerk niet volledig wordt hertraind, maar waarbij alleen bepaalde gewichtsmatrices in een gecomprimeerde vorm worden aangepast. Concreet worden sommige lagen van het model voorzien van kleine, extra matrices die zogenaamde "adapters" vormen. Deze adapters leren nieuwe, taakspecifieke patronen tijdens het fine-tuning proces zonder de oorspronkelijke modelgewichten te veranderen. Dit heeft twee grote voordelen: ten eerste bespaart het geheugen en rekenkracht, en ten tweede blijft het basismodel ongewijzigd - u kunt dus op dezelfde basis verschillende fijnafstemmingen maken, combineren en indien nodig verwijderen.
Dit idee is oorspronkelijk uit noodzaak geboren. Volledige fijnafstemming was gewoon te duur. Het opnieuw trainen van een model met enkele miljarden parameters vereist niet alleen krachtige hardware, maar ook enorme hoeveelheden gegevens en nauwkeurige controle. LoRA kwam daarentegen met een pragmatische oplossing: in plaats van het hele netwerk te veranderen, worden slechts een handvol extra gewichten geoptimaliseerd - meestal één tot twee procent van het totale volume. Hierdoor werd fine-tuning ineens een realistische optie voor individuele gebruikers, start-ups en onderzoeksgroepen.
Eigenlijk symboliseert LoRA de verandering die AI-ontwikkeling heeft ondergaan. Waar vroeger vanaf nul werd getraind, spreken we tegenwoordig van adaptatie: het aanpassen van bestaande kennis in plaats van het forceren van nieuwe kennis. Het is het machine-equivalent van wat je bij menselijk leren ervaring zou kunnen noemen - het model leert zijn weg te vinden in een nieuwe omgeving zonder zijn identiteit te verliezen.
Een ander voordeel van LoRA is de modulariteit. Eenmaal getraind kan een LoRA-adapter geladen of verwijderd worden als een add-on module. Hierdoor ontstaan gespecialiseerde varianten van een basismodel - bijvoorbeeld een chatmodel dat gespecialiseerd is in medische teksten, een model voor juridische taal of een model dat de stijl van een bepaald bedrijf weerspiegelt. In de praktijk is het proces inmiddels ingeburgerd voor zowel tekst- als beeldmodellen, waarbij de onderliggende principes hetzelfde blijven: kleine, gedifferentieerde aanpassingen in plaats van grote, globale ingrepen.
Maar zelfs als het proces zelf elegant is, blijft de implementatie ervan een uitdaging. De trainingsomgeving, datavoorbereiding en de juiste hyperparameters bepalen het succes of falen. Dit is precies waar het cruciale verschil tussen de klassieke open source toolchains zoals Axolotl, LLaMA-Factory of kohya_ss en de nieuwe, geïntegreerde oplossing in FileMaker 2025 duidelijk wordt. Beide gebruiken hetzelfde wiskundige idee - maar ze verankeren het in volledig verschillende technische en conceptuele contexten.
En dit is precies waar onze vergelijking om de hoek komt kijken: in een poging om twee werelden te begrijpen die dezelfde taal spreken maar heel anders denken.
De klassieke manier - LoRA-training met kohya_ss en PEFT
Degenen die de voorkeur geven aan de klassieke manier van LoRA-trainingen Het ritueel is bekend voor iedereen die ooit een LoRA-adapter heeft gebruikt: eerst de installatie van Python, dan de juiste versie van PyTorch, dan de juiste NVIDIA drivers - en aan het einde is er altijd dezelfde onzekerheid of alles wel met elkaar harmonieert. Kohya_SS, oorspronkelijk ontworpen voor het trainen van visuele modellen, is de afgelopen jaren een soort universele oplossing geworden voor iedereen die LoRA-adapters wil maken, of het nu voor afbeeldingen of tekst is. Onder de motorkap gebruikt het systeem dezelfde principes als de PEFT-bibliotheek van Hugging Face, maar dan in een handigere grafische interface.
Het proces volgt altijd hetzelfde patroon. Je begint met een basismodel, zoals een afgeleide van Llama of Mistral. Vervolgens worden de trainingsgegevens voorbereid - meestal in de vorm van JSONL-bestanden met rolstructuren ("gebruiker" en "assistent"), maar soms ook als eenvoudige vraag-antwoordlijsten. Vervolgens moeten de parameters worden gedefinieerd: Learning rate, LoRA rank, adapter layer, batch size, optimiser, target directories. Alleen al deze fase scheidt de hobbyisten van de geduldigen, omdat elk van deze instellingen het verschil kan maken tussen succes en mislukking.
Wat volgt is de eigenlijke trainingsfase - die vaak gepaard gaat met een gevoel tussen hoop en scepsis. Terwijl de GPU urenlang rekent, kijk je nieuwsgierig naar de verliescurve en toch weet je nooit zeker of het resultaat aan het einde echt beter is dan voorheen. Soms eindigt de training met een foutmelding, soms met een bestand dat later niet meer geladen kan worden. En als het lukt, wacht de volgende uitdaging: het voltooide model converteren naar een formaat dat in andere omgevingen kan worden gebruikt. Een adapter die beschikbaar is als safetensors moet vaak geconverteerd worden naar GGUF of MLX - afhankelijk van het doelplatform. Soms gaan daarbij tensors verloren en als je pech hebt, ben je weer terug bij af.
Ondanks al deze hindernissen heeft de klassieke route een zekere aantrekkingskracht. Het is eerlijk, transparant en je kunt bij elke stap voelen wat er op de achtergrond gebeurt. Je kunt de gewichten zien, je kunt parameters individueel veranderen, je hebt volledige controle. En dat was lange tijd precies de charme van deze wereld: het beloonde degenen die zich een weg door de jungle vochten. Iedereen die voor het eerst met succes zijn eigen LoRA-model trainde, voelde zich alsof hij een top had beklommen.
Maar op een gegeven moment rijst de vraag of deze inspanning nog wel gepast is. Het doel blijft immers hetzelfde - een model maken dat zich aanpast aan een specifieke taal, stijl of werkterrein. De methode is goed, maar de weg ernaartoe is vaak moeilijk. En dus groeit het verlangen naar een omgeving waarin dit alles niet langer een weekendproject is, maar een werkinstrument.
FileMaker 2025 - LoRA fijnafstelling via script
Met FileMaker 2025 Claris heeft het nu aangedurfd om precies deze stap te zetten - en, het mag gezegd worden, heeft dat met een zekere elegantie gedaan. Voor het eerst is een klassiekeDatabase een commando dat "Fine-Tune Model" heet. Achter deze eenvoudige uitdrukking gaat een opmerkelijk idee schuil: LoRA-training, voorheen een onderwerp voor specialisten, wordt direct geïntegreerd in de dagelijkse workflow.
Technisch gezien gebeurt dit via het zogenaamde AI-model Serverdat lokaal draait op Apple Silicon systemen en gebaseerd is op Apple's MLX framework. Dit systeem zorgt voor alle berekeningsstappen - van het laden van het basismodel tot het creëren van de adapterlaag. De gebruiker hoeft alleen aan te geven welke gegevens moeten worden getraind en kan dit op twee manieren doen: via een bestaande FileMakerTabel - bijvoorbeeld een verzameling vragen van klanten, ondersteuningsdialogen of tekstfragmenten - of via een extern JSONL-bestand in chatformaat. Hierdoor is tijdrovende voorbereiding van gegevens buiten het systeem niet meer nodig; u werkt direct met de gegevensrecords die al beschikbaar zijn in het bedrijf.
De parameterselectie is ook aanzienlijk gestroomlijnd. In plaats van twintig parameters, zijn er slechts een paar, maar doorslaggevende parameters - max_steps, learning_rate, batch_size en lora_layers. De overige waarden zijn vooraf gedefinieerd in de engine. Deze reductie is geen nadeel, maar een uitdrukking van een duidelijke ontwerpfilosofie: FileMaker is niet bedoeld als onderzoeksplatform, maar als gereedschap dat reproduceerbare, stabiele resultaten levert.
Het fine-tunen zelf wordt dan uitgevoerd zoals elk ander scriptcommando: De gebruiker roept "Fine-Tune Model" op, geeft de modelnaam en opslaglocatie door en FileMaker geeft de rest door aan de AI Model Server. Training vindt volledig lokaal plaats - zonder cloud, zonder API van derden, zonder risico op gegevensbescherming. Het resultaat is een nieuw model met het voorvoegsel fm-mlx- dat rechtstreeks binnen de FileMaker-omgeving kan worden gebruikt voor tekstgeneratie, classificatie of dialoogfuncties.
Aanzienlijk eenvoudiger LoRA-trainingsproces met FileMaker
Iedereen die de klassieke LoRA-ervaring heeft gehad, zal waarschijnlijk verrast zijn door de eerste run: geen terminal, geen stortvloed aan logs, geen cryptische foutmeldingen. In plaats daarvan is er een duidelijke voortgangsbalk en een reproduceerbaar resultaat. Natuurlijk kun je kritiek hebben op het feit dat je minder controle hebt - geen toegang tot exotische optimizers, geen experimenten met QLoRA of bevriezing van lagen - maar dat is precies het punt. Claris is niet gericht op onderzoekers, maar op gebruikers die productief met hun eigen gegevens willen werken.
Dit verandert het karakter van de LoRA-training fundamenteel. Een experimentele procedure wordt een planbaar proces. In de toekomst zullen bedrijven hun eigen interne taalmodellen kunnen aanpassen zonder dat ze de infrastructuur zelf hoeven te beheren. De gegevens blijven intern, de processen worden gedocumenteerd en de resultaten kunnen worden geversioneerd en geautomatiseerd zoals elk ander FileMaker component.
Natuurlijk is scepsis ook hier op zijn plaats. De AI Model Server is nog steeds gebonden aan Apple Silicon en het ontbreekt nog steeds aan diepgaande parametertoegang. Maar het pad is duidelijk: waar het vroeger weken duurde om op te zetten, duurt het nu nog maar een paar minuten. En waar het vroeger bewerkelijk was om te wisselen tussen opslagformaten, volstaat nu een scriptopdracht.
Hiermee heeft FileMaker iets bereikt dat zeldzaam is in de AI-scene: het heeft niet geprobeerd om "meer" te doen, maar "minder" - en op een manier die de werkelijke kracht van het platform benadrukt. Structuur in plaats van chaos, integratie in plaats van fragmentatie.
Praktische vergelijking - MLX-LoRA vs. PEFT-LoRA
Als je de twee benaderingen naast elkaar legt, zul je op het eerste gezicht opmerken dat ze in wezen hetzelfde doen - een bestaand taalmodel aanpassen met behulp van extra adaptergewichten. Maar de manier om dit te bereiken kan nauwelijks meer verschillen. Terwijl de open source wereld LoRA ziet als een flexibel modulair systeem, ziet Claris het als onderdeel van een duidelijk gedefinieerde workflow. Sommigen experimenteren met elk onderdeel, anderen integreren ze naadloos in een gesloten omgeving.
Met de klassieke PEFT-aanpak (Parameter-Efficient Fine-Tuning) - bijvoorbeeld via Axolotl, LLaMA-Factory of kohya_ss - kan elk detail van het trainingsproces worden geregeld. Je kunt specifiek definiëren welke lagen worden aangepast, welke leersnelheden worden gebruikt, hoe gradiënten worden behandeld, hoe geheugen wordt opgeslagen of batchgroottes worden gevarieerd. Deze vrijheid is krachtig, maar vereist deskundigheid en gevoeligheid. Zelfs kleine fouten in de configuratie leiden tot onbruikbare modellen of niet-convergerende runs. Het voordeel ligt in de wetenschappelijke aard: als je wilt begrijpen waarom een model zich gedraagt zoals het zich gedraagt, is dit de beste plek om te beginnen.
FileMaker 2025 is heel anders, waar LoRA niet wordt gezien als een onderzoekstool, maar als een operationele functie - onderdeel van een systeem dat informatie verwerkt in plaats van deze te onderzoeken. Het nieuwe scriptcommando abstraheert veel technische details zonder het basisidee te verstoren. De fijnafstemming wordt op de achtergrond uitgevoerd op de AI Model Server, aangestuurd door een paar eenvoudige parameters. Alles wat voorheen in YAML-bestanden of shellcommando's zat, wordt nu in een vertrouwd FileMaker-script gegoten. Het resultaat is minder spectaculair, maar wel stabieler - een reproduceerbaar proces dat kan worden gedocumenteerd, geautomatiseerd en geïntegreerd in de bedrijfslogica.
Je zou het verschil als volgt kunnen beschrijven: De klassieke manier is als sleutelen aan een motor, waarbij elke pakking zichtbaar is en elke afstelling handmatig is. FileMaker daarentegen heeft de motor afgedekt en er een startknop naast gezet. Het resultaat is misschien minder spannend voor hobbyisten, maar het start betrouwbaar.
Wat de resultaten betreft, hangt de kwaliteit in beide gevallen af van dezelfde factoren: de kwaliteit van de gegevens, de geschiktheid van de leersnelheid en het basismodel. Verschillen komen meer voort uit de aard van de omgeving dan uit de methode zelf. FileMaker werkt van nature met gesloten datasets - meestal applicatie- of bedrijfsspecifieke corpora. Dit betekent schonere maar kleinere gegevenssets. In de open source wereld worden daarentegen meestal grote, gemengde datasets gebruikt, vaak uit een grote verscheidenheid aan bronnen. Dit kan leiden tot robuustere resultaten aan de ene kant, maar meer inconsistente resultaten aan de andere kant.
Het resultaat is duidelijk: FileMaker levert een stabiel, bruikbaar model in minder tijd, terwijl de PEFT-gebaseerde training meer potentieel biedt, maar ook meer onzekerheid. Dus als je een reproduceerbaar proces wilt dat in het dagelijks werk kan worden geïntegreerd, dan is FileMaker een onverwacht volwassen oplossing. Aan de andere kant, wie wil experimenteren, begrijpen en voorbij de grenzen van de standaardparameters wil gaan, is beter af in de open source wereld.
Kwaliteitsverschillen - wat telt echt?
Ondanks alle discussies over frameworks, formaten en commando's mag één ding niet over het hoofd worden gezien: De kwaliteit van de LoRA-fine-tuning wordt niet bepaald door de tool, maar door wat je erin stopt. Een goed gestructureerde dataset met duidelijk geformuleerde vragen en realistische antwoorden heeft een grotere invloed op het eindresultaat dan welke leersnelheid of batchgrootte dan ook. Dit geldt zowel voor FileMaker training als voor PEFT-gebaseerde runs.
Toch is het de moeite waard om eens te kijken naar de verschillen die een indirecte invloed hebben op de kwaliteit. In de klassieke omgeving werk je meestal met grotere hoeveelheden gegevens, wat een zekere mate van variantie met zich meebrengt. Modellen die op dergelijke gegevenssets zijn getraind, hebben de neiging om breder maar minder precies te reageren. Ze ontwikkelen vaak een zekere "taalbreedte", wat indrukwekkend is in generieke toepassingen, maar kan leiden tot willekeur in gespecialiseerde omgevingen. FileMaker daarentegen bevordert het tegenovergestelde: hier worden gegevens specifiek geselecteerd en gecureerd, vaak rechtstreeks vanuit een tabel die de echte bedrijfscontext weerspiegelt. Dit resulteert in een natuurlijke focus - het model leert niet alles, maar wel wat relevant is.
Ingekapseld proces zorgt voor betere stabiliteit
Een ander punt is reproduceerbaarheid. Klassieke LoRA-training wordt meestal uitgevoerd in omgevingen die snel veranderen door versie-updates, GPU-stuurprogramma's of bibliotheekwijzigingen. Een training die vandaag werkt, kan morgen mislukken. FileMaker breekt met deze onzekerheid door het hele proces in te kapselen. De AI Model Server gebruikt een duidelijk gedefinieerde MLX runtime die niet afhankelijk is van de gebruiker of de internetverbinding. Hoewel dit leidt tot minder flexibiliteit, resulteert het ook in een grotere stabiliteit - en dat is precies wat cruciaal is in productieve scenario's.
De evaluatie van de resultaten verschilt ook. In de open source wereld wordt kwaliteit vaak gemeten aan de hand van kwantitatieve metrieken - perplexiteit, nauwkeurigheid, BLEU score. FileMaker werkt daarentegen rustiger: het resultaat is in het dagelijks leven zichtbaar wanneer een systeem plotseling preciezer reageert op interne vragen of wanneer een automatisch gegenereerde tekst natuurlijker klinkt. Dit zijn kwalitatieve, op ervaring gebaseerde verschillen - de manier waarop een model reageert op vertrouwde termen, hoe het bedrijfsspecifieke tonaliteit oppikt of hoe het minder "hallucineert" met technische termen.
Tot slot mag de factor tijd niet onderschat worden. PEFT-training met Axolotl of kohya_ss kan gemakkelijk vele uren of zelfs dagen in beslag nemen, inclusief voorbereiding en nabewerking. FileMaker training daarentegen kan in enkele minuten worden gestart en parallel met andere taken worden uitgevoerd. Deze snelheid verandert de manier waarop u met AI-systemen werkt: Een technisch project wordt een alledaags proces.
Het resultaat laat zien dat het kwalitatieve verschil minder zit in de modelprestaties dan in de beschikbaarheid en bruikbaarheid. FileMaker LoRA's zijn vaak kleiner, meer gefocust en stabieler - en dit is precies wat ze waardevol maakt voor echte werkprocessen. PEFT LoRA's daarentegen kunnen dieper zijn, beter aanpasbaar en, op de grens, krachtiger als ze goed getraind zijn. Het is alsof je een precisiemachine vergelijkt met een universeel laboratorium: Beide hebben hun nut, maar ze dienen verschillende doelen.
En misschien is dat wel precies de les van deze nieuwe ontwikkeling - dat kwaliteit niet alleen draait om cijfers, maar om betrouwbaarheid, duidelijkheid en het vermogen om kennis in een georganiseerd kader te brengen. FileMaker 2025 laat zien dat zelfs in een wereld die overloopt van experimenten, soms de voorzichtige, geïntegreerde oplossing de betere resultaten oplevert.
Draagbaarheid en duurzaamheid - tussen werelden
Als je het landschap van modelformaten vandaag de dag bekijkt, moet je bijna denken aan de beginjaren van de computer, toen elk systeem zijn eigen taal sprak. Wat vroeger schijfformaten waren, zijn nu tensorformaten: GGUF, safetensors, ckpt, MLX. Elk framework, elke engine lijkt zijn eigen logica te onderhouden. En net zoals je vroeger adapterkabels nodig had om van Windows naar Mac over te schakelen, heb je tegenwoordig conversiescripts nodig - soms van MLX naar GGUF, soms andersom.
FileMaker 2025 maakt hier bewust een punt. De nieuwe AI Model Server gebruikt uitsluitend MLX als backend - het framework dat Apple ontwikkelde voor zijn eigen Silicon. MLX is nog jong, maar conceptueel sterk: het maakt training, inferentie en LoRA fijnafstemming mogelijk in een consistent geheugenformaat, geoptimaliseerd voor de neurale kernen van de M-Chips. De keuze van Claris voor dit systeem is dan ook geen toeval. Het volgt de filosofie van het creëren van een stabiele, gecontroleerde omgeving die volledig lokaal kan worden bediend.
Dit heeft gevolgen voor de overdraagbaarheid. Een LoRA-model dat is getraind in FileMaker heeft automatisch het voorvoegsel fm-mlx- en kan direct worden gebruikt in de MLX runtime. Als je het echter in een andere omgeving wilt gebruiken - bijvoorbeeld in LM Studio, Ollama of llama.cpp - moet je de omleidingen maken via een conversie. Dit is technisch mogelijk, maar nog niet triviaal. Hoewel er eerste tools zijn die MLX modellen kunnen overzetten naar GGUF, is er nog steeds geen gestandaardiseerde brug. De reden hiervoor ligt minder in de wiskunde dan in de organisatie: MLX is Apple-centrisch, terwijl GGUF community-gedreven is. Beide systemen ontwikkelen zich snel, maar onafhankelijk van elkaar.
In de praktijk betekent dit dat iedereen die met FileMaker werkt in eerste instantie binnen een gesloten maar stabiel ecosysteem blijft. Voor veel use cases is dit geen nadeel, integendeel. De zekerheid dat een model in dezelfde omgeving wordt getraind, opgeslagen en gebruikt, heeft voordelen die veel verder gaan dan technisch gemak. Het gaat om zaken als traceerbaarheid, gegevenssoevereiniteit en levensduur. Terwijl open source frameworks vaak in korte innovatiecycli leven, staat FileMaker traditioneel voor consistentie. Modellen die vandaag worden getraind, zullen over twee of drie jaar nog steeds in dezelfde vorm uitvoerbaar zijn - en dat is een waarde die in de bedrijfscontext nauwelijks kan worden overschat.
Toch blijft de wens naar uitwisselbaarheid bestaan. Het is denkbaar - en op de lange termijn bijna onvermijdelijk - dat Claris in de toekomst exportfuncties aanbiedt, bijvoorbeeld naar GGUF of ONNX. Hierdoor zouden modellen buiten de FileMaker-wereld kunnen worden gebruikt zonder hun kern te verliezen. Het is even waarschijnlijk dat MLX zelf sterker zal groeien in de open source wereld en dat de barrières tussen Apple en niet-Apple omgevingen langzaam zullen verdwijnen.
Voorlopig staat FileMaker echter op een duidelijk gedefinieerde basis: stabiliteit boven diversiteit, eenvoud boven overbelasting. Het is een beslissing die niet iedereen zal bevallen, maar die op lange termijn zinvol is. Want in een wereld waarin alles tegelijk mogelijk is, zal wat betrouwbaar werkt opnieuw gewicht in de schaal leggen.
Conclusie - Van experiment naar hulpmiddel
Uiteindelijk blijft het besef dat FileMaker 2025 met zijn LoRA-opdracht niet zomaar een nieuwe functie heeft geïntroduceerd, maar een signaal heeft afgegeven. Een signaal dat AI-training niet langer een specialistische aangelegenheid is, maar onderdeel kan worden van normale bedrijfsprocessen. De integratie van LoRA in een systeem dat al tientallen jaren staat voor stabiliteit, traceerbaarheid en gebruiksvriendelijkheid markeert een keerpunt - niet in onderzoek, maar in de praktijk.
Klassieke LoRA-training, met kohya_ss of PEFT, zal zijn plaats behouden. Het zal het domein blijven van ontwikkelaars, onderzoekers en hobbyisten - zij die in detail willen begrijpen hoe modellen zich gedragen, die elke gewichtsmatrix afzonderlijk willen bekijken. Deze openheid heeft zijn waarde, het is de basis voor vooruitgang. Maar de prijs hiervoor is inspanning, onzekerheid en een zekere kwetsbaarheid.
FileMaker daarentegen kiest de andere weg: het reduceert complexiteit tot de essentie en transformeert een ingewikkeld proces in een herhaalbare routine. Fine-tuning wordt een scriptopdracht, het model wordt onderdeel van een database, de AI wordt een van de vele tools. Dit maakt de technologie niet kleiner, maar tastbaarder. Het verliest zijn experimentele karakter en wordt geschikter voor dagelijks gebruik.
Het kwalitatieve verschil zit hem niet in de rekenkracht of de reeks parameters, maar in de aanpak. Terwijl veel AI-platforms de gebruiker overspoelen met opties, bewandelt Claris een rustiger pad - het pad van integratie. Alles gebeurt waar de gegevens zich toch al bevinden. Dit is geen technologische truc, maar een uitdrukking van een filosofie: processen horen bij elkaar, niet naast elkaar.
Misschien is dat wel de echte vooruitgang - dat de voortdurende zoektocht naar nieuwe mogelijkheden eindelijk is uitgemond in een tool die kan worden begrepen, bediend en gecontroleerd. FileMaker 2025 plaatst LoRA waar het thuishoort: in de handen van degenen die met gegevens werken, niet alleen in de laboratoria van degenen die er onderzoek naar doen.
En zo sluit de cirkel zich: van het chaotische terminalvenster naar de eerste experimentele fijnafstellingen naar het scriptcommando dat hetzelfde doet - alleen schoon, gestructureerd en begrijpelijk. Een stille maar significante verandering. Want soms verandert de wereld niet door wat opnieuw wordt uitgevonden, maar door wat uiteindelijk gewoon werkt.
In het volgende artikel beschrijven we hoe een taalmodel in de praktijk kan worden getraind aan de hand van een voorbeeldscript met FileMaker.
Veelgestelde vragen
- Wat is LoRA precies en waarvoor wordt het gebruikt bij het trainen van taalmodellen?
LoRA staat voor Low-Rank Adaptation. Het is een proces waarbij slechts een klein deel van de modelparameters wordt aangepast om een groot taalmodel aan te passen aan specifieke taken of schrijfstijlen. In plaats van miljarden gewichten te veranderen, worden extra, kleine matrices ("adapters") getraind. Dit bespaart geheugen, tijd en rekenkracht. Het basismodel blijft onveranderd, wat LoRA-modellen bijzonder flexibel en efficiënt maakt. - Wat is het verschil tussen een FileMaker LoRA training en een klassieke PEFT training met Axolotl of kohya_ss?
In wezen niet zo veel - beide gebruiken hetzelfde wiskundige idee. Het verschil zit hem in de omgeving. PEFT-training wordt uitgevoerd in open frameworks met een groot aantal hefbomen, meestal via Python-bibliotheken. FileMaker daarentegen integreert het proces in zijn AI Model Server. De training draait lokaal via MLX op Apple Silicon-systemen en wordt uitgevoerd via Script gecontroleerd. De nadruk ligt hier meer op stabiliteit en integratie dan op vrijheid van onderzoek. - Wat is de AI Model Server in FileMaker 2025?
De AI Model Server is een lokale component die tekstmodellen levert, traint en uitvoert - volledig op Apple Silicon hardware. Het vormt de technische basis voor alle AI-functies in FileMaker, inclusief tekstgeneratie, insluiting en fijnafstemming. Hierdoor kan een bedrijf AI-modellen gebruiken zonder gegevens naar externe clouds over te brengen. - Hoe werkt een LoRA-training in FileMaker 2025 eigenlijk?
De gebruiker roept de nieuwe opdracht Fine-Tune Model in het script op. De invoer is een tabel in de FileMaker database (bijvoorbeeld met prompts en antwoorden) of een extern JSONL-bestand met een chatstructuur. Het trainen begint dan lokaal via de AI Model Server. Na voltooiing wordt een nieuw model met de prefix fm-mlx-... gegenereerd, dat onmiddellijk in scripts of lay-outs kan worden gebruikt. - Welke parameters kunnen worden ingesteld voor FileMaker-training?
FileMaker staat een paar specifieke maar doorslaggevende parameters toe:
- max_stappen - Aantal trainingsstappen
- leersnelheid - Leertempo
- partijgrootte - Grootte van de trainingsbatches
- lora_lagen - Aantal adapterlagen
Dit houdt de training overzichtelijk zonder het risico van verkeerde configuraties. - Wat zijn de voordelen van training via FileMaker in vergelijking met traditionele tools?
Het grootste voordeel ligt in de integratie. Je werkt direct met de gegevens die al beschikbaar zijn in het systeem en bespaart op setup, omgevingsvariabelen, pakketinstallaties of GPU-configuraties. Bovendien blijft alles lokaal en reproduceerbaar. Dit is een doorslaggevend argument voor bedrijven - gegevensbescherming, traceerbaarheid en eenvoudig onderhoud. - Is FileMaker-LoRA van mindere kwaliteit dan een PEFT-LoRA?
Niet fundamenteel. De onderliggende methode is identiek. Verschillen ontstaan door de grootte van de dataset, de selectie van parameters en evaluatie. FileMaker vertrouwt op stabiele standaardwaarden en gestructureerde gegevenssets, terwijl PEFT-opstellingen meer experimentele speelruimte bieden. In veel gevallen behaalt FileMaker zelfs consistentere resultaten omdat er minder variabelen gevoelig zijn voor fouten. - Kan FileMaker ook worden gebruikt om grotere basismodellen te trainen, bijvoorbeeld Llama 3 of Mistral?
Ja, zolang het basismodel in MLX-formaat is en wordt ondersteund door de AI Model Server. FileMaker is geoptimaliseerd voor tekstgebaseerde modellen die lokaal draaien op Apple Silicon chips. Zeer grote modellen worden echter beperkt door de RAM- en GPU-capaciteit - modellen tot ongeveer 8 - 14 miljard parameters zijn meestal geschikt. - Kan ik een met FileMaker getraind model buiten FileMaker gebruiken?
Momenteel alleen met beperkingen. Het model is beschikbaar in MLX-formaat en is direct bedoeld voor de AI Model Server. Er zijn initiële conversietools voor het exporteren naar andere formaten (bijv. GGUF, ONNX), maar deze zijn nog experimenteel. Claris zou deze functie in de toekomst officieel kunnen ondersteunen. - Wat zijn de hardwarevereisten voor training in FileMaker?
Een Mac met een Apple Silicon-chip (M1, M2, M3 of nieuwer) is vereist. De training maakt gebruik van de Neural Engine en GPU-eenheden van de chip. Intel Macs worden niet ondersteund. Voor grotere datasets raden we minimaal 16 GB RAM aan, bij voorkeur 32 GB of meer. - Hoe zit het met gegevensbescherming en -beveiliging in FileMaker training?
De training vindt volledig lokaal plaats. Er worden geen gegevens overgedragen aan derden en er wordt geen cloud-API gebruikt. Voor bedrijven die werken met vertrouwelijke of persoonlijke gegevens is dit een doorslaggevend voordeel ten opzichte van externe AI-diensten. - Kan ik meerdere modellen tegelijkertijd in FileMaker uitvoeren?
De AI Model Server ondersteunt momenteel één model per keer. U kunt echter een willekeurig aantal fijnafstemmingen maken en deze naar wens laden of verwijderen. Deze beperking komt de stabiliteit en voorspelbaarheid van het systeem ten goede. - Hoe groot is het verschil in trainingsinspanning tussen FileMaker en de klassieke LoRA?
Het is aanzienlijk. Terwijl een klassieke PEFT-setup vaak uren of dagen voorbereiding vergt - installatie, afhankelijkheden, testruns - is FileMaker klaar in slechts enkele minuten. Het trainingsproces zelf verloopt ook sneller omdat MLX zeer efficiënt werkt op Apple Silicon. Dit bespaart tijd en zenuwen, zelfs als u wat controle verliest. - Welke soorten tekstgegevens zijn het meest geschikt voor training?
Gestructureerde, dialoogachtige gegevens zijn ideaal: Vragen van klanten, supportgesprekken, interne kennisdatabases, FAQ's of technische teksten. Het is belangrijk dat de gegevens duidelijk geformuleerd zijn en een herkenbaar patroon hebben. LoRA leert geen "inhoud", maar linguïstische en contextuele structuren - kwaliteit gaat boven kwantiteit. - Hoe kan de kwaliteit van een FileMaker LoRA-model worden beoordeeld?
Niet met abstracte metriek, maar in de praktijk. Je controleert of het model consistent reageert op interne vragen, of het technische termen correct gebruikt en of de tonaliteit overeenkomt met de gewenste stijl. FileMaker maakt eenvoudige vergelijkingstests mogelijk, bijvoorbeeld met behulp van scripts die prompts naar verschillende modellen sturen en de antwoorden opslaan. - Is het mogelijk om een FileMaker LoRA-model te verwijderen of te overschrijven?
Ja, verfijnde modellen kunnen worden beheerd, verwijderd of vervangen in de beheerconsole van de AI Model Server. Aangezien de basismodellen ongewijzigd blijven, is het risico minimaal. U kunt op elk moment hertrainen zonder het startpunt te verliezen. - Hoe verhoudt FileMaker zich tot cloud fine-tuning met OpenAI of Anthropic?
FileMaker biedt lokale controle, terwijl clouddiensten meestal aan de serverkant trainen en resultaten terugsturen via API. Het nadeel van de cloud: hoge kosten, beperkte gegevensbescherming en geen directe toegang tot het model. FileMaker bereikt het tegenovergestelde - volledige gegevenssoevereiniteit, geen afhankelijkheid van derden, maar beperkt tot Apple hardware. - Hoe stabiel is MLX als platform voor LoRA-training?
MLX is nog jong, maar technisch volwassen. Het is door Apple speciaal ontwikkeld voor neurale netwerken op M chips en biedt verbazingwekkend hoge prestaties met een laag energieverbruik. In combinatie met FileMaker lijkt het een solide basis voor lokale AI-toepassingen, ook al is er momenteel minder ondersteuning vanuit de gemeenschap dan bij PyTorch. - Zal FileMaker in de toekomst ook export naar open formaten ondersteunen?
Dat is waarschijnlijk. Claris heeft de afgelopen jaren meermaals benadrukt dat het op lange termijn open standaarden wil ondersteunen. Een export naar GGUF of ONNX zou de logische volgende stap zijn om FileMaker trainingen te integreren in externe omgevingen (bv. LM Studio of Ollama). Dit is nog niet officieel aangekondigd, maar is technisch haalbaar. - Is de overstap naar FileMaker-LoRA de moeite waard voor ervaren PEFT-gebruikers?
Dat hangt af van het doel. Als je diepgaand onderzoek wilt doen, metrieken wilt vergelijken of je eigen architecturen wilt testen, kun je het beter bij Axolotl of LLaMA-Factory houden. Wie een stabiele, herhaalbare training in een gecontroleerde omgeving nodig heeft - bijvoorbeeld voor interne assistenten, gespecialiseerd taalgebruik of procesautomatisering - zal FileMaker een opmerkelijk elegante oplossing vinden.

Markus Schall ontwikkelt sinds 1994 databases, interfaces en bedrijfstoepassingen op maat op basis van Claris FileMaker. Hij is Claris-partner, FMM Award-winnaar 2011 en ontwikkelaar van de ERP-software gFM-Business. Hij is ook auteur van boeken en oprichter van de M. Schall Uitgevers.
