Chiunque abbia provato seriamente ad addestrare il proprio modello LoRA nel 2023 o nel 2024 - con kohya_ss, Axolotl o un'altra toolchain basata su PEFT - sa che spesso c'è un profondo abisso tra teoria e pratica. Sulla carta sembra semplice: si carica un modello di base, si preparano i dati di addestramento, si regolano i parametri e si parte. In realtà, spesso si finisce in una giungla di versioni di Python, errori CUDA, librerie incoerenti e formati di memoria errati. Si passa da safetensor, ckpt, GGUF o, più recentemente, MLX, senza sapere sempre quale formato sia attualmente compatibile - e perché no. Anche piccoli cambiamenti nella configurazione possono causare l'arresto di interi cicli di addestramento e, se si vuole utilizzare un modello in un ambiente diverso, ci si trova spesso a dover affrontare la successiva serie di conversioni.
È proprio in questa situazione che si comincia a capire il vero significato del termine "adattamento a basso rango": Non solo perché si adattano modelli di basso rango, ma perché si diventa umili di fronte alla complessità di questi sistemi. Eppure è proprio questo metodo la chiave per adattare modelli linguistici di grandi dimensioni in modo efficiente, con risparmio di risorse e specifico per il dominio.
Ora Claris entra in scena con FileMaker 2025, un ambiente che in precedenza era noto per cose completamente diverse: soluzioni di database, processi aziendali, flussi di lavoro chiaramente strutturati.
E all'improvviso appare un passo di script chiamato semplicemente "Fine-Tune Model". Un comando che cita la parola "LoRA" nello stesso modo di "FileMaker". Chiunque abbia trascorso gli ultimi anni a frequentare i classici corsi di formazione su LoRA inevitabilmente si stropiccia gli occhi. Perché la domanda è ovvia: può davvero funzionare e, se sì, a quale livello?
Questa curiosità è giustificata. Dopo tutto, se prima si passavano ore a smanettare sulla riga di comando, ora FileMaker offre la prospettiva di allenarsi "con un clic del mouse", direttamente in un ambiente che contiene già i dati con cui ci si vuole allenare. Un cambio di paradigma: via dal laboratorio sperimentale e verso una cassetta degli attrezzi produttiva. Ma, naturalmente, lo scetticismo rimane appropriato. Perché per quanto l'idea sia affascinante, la vera domanda è: cosa sta succedendo tecnicamente? Si tratta di una vera e propria messa a punto della LoRA o di una versione astratta e semplificata? E in che modo i risultati differiscono qualitativamente dall'addestramento effettuato con metodi tradizionali?
Prima di dare un giudizio, vale la pena di dare un breve sguardo al principio stesso, all'idea alla base di LoRA, che ci ha permesso di ripensare grandi modelli in uno spazio ridotto.
Al nuovo Funzioni AI da FileMaker 2025 Markus Schall ha pubblicato un articolo separato sul suo sito web. L'articolo che segue riguarda la messa a punto di un modello linguistico da parte di LoRA direttamente da FileMaker. Nel prossimo articolo descriveremo come è possibile addestrare un modello linguistico nella pratica con FileMaker.
Che cos'è la LoRA? - Una breve rassegna del principio
LoRA è l'acronimo di Low-Rank Adaptation e questo nome descrive con precisione il metodo. Si tratta di una tecnica in cui una rete neurale di grandi dimensioni non viene completamente riqualificata, ma solo adattata in alcune matrici di peso in forma compressa. In particolare, alcuni strati del modello sono dotati di piccole matrici aggiuntive che formano i cosiddetti "adattatori". Questi adattatori apprendono nuovi modelli specifici per il compito durante il processo di messa a punto, senza modificare i pesi originali del modello. Ciò comporta due vantaggi principali: in primo luogo, si risparmia memoria e potenza di calcolo e, in secondo luogo, il modello di base rimane invariato, per cui è possibile creare, combinare e, se necessario, rimuovere diverse messe a punto sulla stessa base.
Questa idea è nata per necessità. La messa a punto completa era semplicemente troppo costosa. La riqualificazione di un modello con diversi miliardi di parametri richiede non solo un hardware potente, ma anche enormi quantità di dati e un controllo preciso. LoRA, invece, ha proposto una soluzione pragmatica: invece di modificare l'intera rete, vengono ottimizzati solo una manciata di pesi aggiuntivi, di solito l'uno o il due percento del volume totale. Questo ha reso improvvisamente la messa a punto un'opzione realistica per i singoli utenti, le start-up e i gruppi di ricerca.
In sostanza, LoRA simboleggia il cambiamento che lo sviluppo dell'IA ha subito. Mentre in passato l'addestramento veniva fatto da zero, oggi si parla di adattamento: adattare le conoscenze esistenti invece di forzarne di nuove. È l'equivalente macchina di ciò che nell'apprendimento umano si chiama esperienza: il modello impara a orientarsi in un nuovo ambiente senza perdere la propria identità.
Un altro vantaggio di LoRA è la sua modularità. Una volta addestrato, un adattatore LoRA può essere caricato o scaricato come un modulo aggiuntivo. In questo modo si creano varianti specializzate di un modello di base, ad esempio un modello di chat specializzato in testi medici, uno per il linguaggio legale o uno che riflette lo stile di una particolare azienda. In pratica, il processo si è affermato sia per i modelli di testo che per quelli di immagine, ma i principi di fondo rimangono gli stessi: piccoli adattamenti differenziati invece di grandi interventi globali.
Ma anche se il processo in sé è elegante, la sua implementazione rimane impegnativa. L'ambiente di addestramento, la preparazione dei dati e i giusti iperparametri determinano il successo o il fallimento. È proprio qui che emerge la differenza cruciale tra le classiche catene di strumenti open source come Axolotl, LLaMA-Factory o kohya_ss e la nuova soluzione integrata in FileMaker 2025. Entrambe utilizzano la stessa idea matematica, ma la inseriscono in contesti tecnici e concettuali completamente diversi.
Ed è proprio questo il punto in cui inizia il nostro confronto: cercare di capire due mondi che parlano la stessa lingua ma pensano in modo molto diverso.
Il metodo classico - allenamento LoRA con kohya_ss e PEFT
Chi preferisce il modo classico di Formazione LoRA Il rituale è familiare a chiunque abbia mai usato un adattatore LoRA: prima l'installazione di Python, poi la versione corretta di PyTorch, poi i driver NVIDIA appropriati - e alla fine c'è sempre la stessa incertezza sul fatto che tutto si armonizzi con l'altro. Kohya_SS, originariamente progettato per l'addestramento di modelli visivi, negli ultimi anni è diventato una sorta di soluzione universale per chiunque voglia creare adattatori LoRA, sia per immagini che per testo. Sotto il cofano, il sistema utilizza gli stessi principi della libreria PEFT di Hugging Face, solo con un'interfaccia grafica più comoda.
Il processo segue sempre lo stesso schema. Si parte da un modello di base, come un derivato di Llama o Mistral. Si preparano quindi i dati di addestramento, di solito sotto forma di file JSONL con strutture di ruoli ("utente" e "assistente"), ma talvolta anche come semplici elenchi di domande e risposte. Si devono poi definire i parametri: tasso di apprendimento, rango LoRA, strato adattatore, dimensione del batch, ottimizzatore, directory di destinazione. Questa fase da sola separa gli hobbisti dai pazienti, poiché ognuna di queste impostazioni può fare la differenza tra il successo e il fallimento.
Segue la fase di allenamento vera e propria, spesso accompagnata da una sensazione di speranza e scetticismo. Mentre la GPU calcola per ore, si osserva con curiosità la curva delle perdite, ma non si sa mai con certezza se il risultato finale sia davvero migliore di quello precedente. A volte l'allenamento termina con un messaggio di errore, a volte con un file che non può più essere caricato in seguito. E se si riesce, la sfida successiva attende: convertire il modello finito in un formato che possa essere utilizzato in altri ambienti. Un adattatore disponibile come safetensor spesso deve essere convertito in GGUF o MLX, a seconda della piattaforma di destinazione. A volte i tensori vengono persi durante il processo e, se si è sfortunati, si torna al punto di partenza.
Nonostante tutti questi ostacoli, il percorso classico ha un certo fascino. È onesto, trasparente e si può percepire ciò che accade sullo sfondo a ogni passo. Si possono vedere i pesi, si possono modificare i parametri individualmente, si ha il pieno controllo. Ed è stato proprio questo il fascino di questo mondo per molto tempo: premiava chi si faceva strada nella giungla. Chiunque sia riuscito ad allenare il proprio modello LoRA per la prima volta ha avuto la sensazione di aver scalato una vetta.
Ma a un certo punto ci si chiede se questo sforzo sia ancora appropriato. Dopo tutto, l'obiettivo rimane lo stesso: creare un modello che si adatti a una lingua, a uno stile o a un campo di attività specifici. Il metodo è valido, ma spesso è difficile arrivarci. Cresce quindi il desiderio di un ambiente in cui tutto questo non sia più un progetto del fine settimana, ma uno strumento di lavoro.
FileMaker 2025 - Regolazione fine di LoRA tramite script
Con FileMaker 2025 Claris ha osato fare proprio questo passo e, si può dire, lo ha fatto con una certa eleganza. Per la prima volta, un'azienda classicaDatabase un comando che va sotto il nome di "Fine-Tune Model". Dietro questa semplice espressione si nasconde un'idea notevole: la formazione LoRA, in precedenza un argomento per specialisti, viene integrata direttamente nel flusso di lavoro quotidiano.
Tecnicamente, ciò avviene attraverso il cosiddetto Modello AI Serverche viene eseguito localmente sui sistemi Apple Silicon ed è basato sul framework MLX di Apple. Questo sistema si occupa di tutte le fasi di calcolo, dal caricamento del modello di base alla creazione del livello adattatore. L'utente deve solo specificare quali dati devono essere addestrati e può farlo in due modi: o tramite un FileMaker esistenteTabella - ad esempio, una raccolta di richieste di informazioni da parte dei clienti, dialoghi di assistenza o frammenti di testo, oppure tramite un file JSONL esterno in formato chat. In questo modo si elimina la necessità di una lunga preparazione dei dati al di fuori del sistema; si lavora direttamente con i record di dati già disponibili in azienda.
Anche la selezione dei parametri è stata notevolmente semplificata. Invece di venti parametri, ce ne sono solo alcuni, ma decisivi: max_steps, learning_rate, batch_size e lora_layers. I valori rimanenti sono ragionevolmente preimpostati nel motore. Questa riduzione non è uno svantaggio, ma l'espressione di una chiara filosofia di progettazione: FileMaker non è destinato a essere una piattaforma di ricerca, ma uno strumento che fornisce risultati riproducibili e stabili.
La messa a punto stessa viene eseguita come qualsiasi altro comando di script: L'utente chiama "Fine-Tune Model", passa il nome del modello e la posizione di archiviazione e FileMaker passa il resto all'AI Model Server. L'addestramento avviene completamente in locale, senza cloud, senza API di terze parti, senza rischi per la protezione dei dati. Il risultato è un nuovo modello con il prefisso fm-mlx- che può essere utilizzato direttamente nell'ambiente FileMaker per la generazione di testi, la classificazione o le funzioni di dialogo.
Processo di formazione LoRA significativamente più semplice con FileMaker
Chiunque abbia avuto la classica esperienza di LoRA sarà probabilmente sorpreso dalla prima esecuzione: nessun terminale, nessuna marea di log, nessun messaggio di errore criptico. Al contrario, c'è una chiara barra di avanzamento e un risultato riproducibile. Certo, si può criticare il fatto di avere meno controllo - nessun accesso a ottimizzatori esotici, nessun esperimento con QLoRA o il congelamento dei livelli - ma è proprio questo il punto. Claris non si rivolge ai ricercatori, ma agli utenti che vogliono lavorare in modo produttivo con i propri dati.
Questo cambia radicalmente il carattere della formazione LoRA. Un processo sperimentale diventa un processo pianificabile. In futuro, le aziende potranno adattare i propri modelli linguistici interni senza dover gestire direttamente l'infrastruttura. I dati restano interni, i processi sono documentati e i risultati possono essere versionati e automatizzati come qualsiasi altro componente di FileMaker.
Naturalmente, anche in questo caso lo scetticismo è ammesso. L'AI Model Server è ancora legato a Apple Silicon e manca ancora un accesso approfondito ai parametri. Ma il percorso è chiaro: la configurazione richiedeva settimane, ora richiede solo pochi minuti. E dove prima era laborioso passare da un formato di archiviazione all'altro, ora basta un comando di script.
In questo modo, FileMaker ha ottenuto un risultato raro nel panorama dell'AI: non ha cercato di fare "di più", ma "di meno" - e in un modo che enfatizza l'effettiva forza della piattaforma. Struttura invece di caos, integrazione invece di frammentazione.
Confronto pratico - MLX-LoRA vs. PEFT-LoRA
Se si affiancano i due approcci, si noterà subito che fanno essenzialmente la stessa cosa: adattano un modello linguistico esistente con l'aiuto di pesi adattatori aggiuntivi. Ma il modo in cui si ottiene questo risultato non potrebbe essere più diverso. Mentre il mondo open source vede LoRA come un sistema modulare flessibile, Claris lo vede come parte di un flusso di lavoro chiaramente definito. Alcuni sperimentano i singoli componenti, altri li integrano perfettamente in un ambiente chiuso.
Il classico approccio PEFT (Parameter-Efficient Fine-Tuning) - ad esempio tramite Axolotl, LLaMA-Factory o kohya_ss - consente di controllare ogni dettaglio del processo di addestramento. È possibile definire in modo specifico quali strati vengono adattati, quali tassi di apprendimento vengono utilizzati, come vengono gestiti i gradienti, come viene salvata la memoria o come vengono variate le dimensioni dei batch. Questa libertà è potente, ma richiede competenza e sensibilità. Anche piccoli errori nella configurazione portano a modelli inutilizzabili o a esecuzioni non convergenti. Il vantaggio sta nella sua natura scientifica: se si vuole capire perché un modello si comporta nel modo in cui si comporta, questo è il miglior punto di partenza.
FileMaker 2025 è molto diverso, dove LoRA non è inteso come uno strumento di ricerca, ma come una funzione operativa, parte di un sistema che elabora le informazioni invece di ricercarle. Il nuovo comando di script astrae molti dettagli tecnici senza snaturare l'idea di base. La messa a punto viene eseguita in background sull'AI Model Server, controllata da pochi semplici parametri. Tutto ciò che prima era contenuto nei file YAML o nei comandi di shell viene riversato in un familiare script di FileMaker. Il risultato è meno spettacolare, ma più stabile: un processo riproducibile che può essere documentato, automatizzato e integrato nella logica aziendale.
Si potrebbe descrivere la differenza in questo modo: Il metodo classico è come quello di intervenire su un motore, dove ogni guarnizione è visibile e ogni regolazione è manuale. FileMaker, invece, ha coperto il motore e gli ha messo accanto un pulsante di avviamento. Il risultato può essere meno entusiasmante per gli hobbisti, ma si avvia in modo affidabile.
Per quanto riguarda i risultati, la qualità in entrambi i casi dipende dagli stessi fattori: la qualità dei dati, l'adeguatezza del tasso di apprendimento e il modello di base. Le differenze derivano più dalla natura dell'ambiente che dal metodo stesso. Per sua natura, FileMaker lavora su insiemi di dati chiusi, tipicamente corpora specifici per applicazioni o aziende. Questo significa insiemi di dati più puliti ma più piccoli. Nel mondo open source, invece, si utilizzano di solito grandi insiemi di dati misti, spesso provenienti da un'ampia varietà di fonti. Questo può portare a risultati più solidi da un lato, ma più incoerenti dall'altro.
Il risultato è chiaro: FileMaker fornisce un modello stabile e utilizzabile in minor tempo, mentre la formazione basata su PEFT offre più potenziale, ma anche più incertezza. Quindi, se si vuole un processo riproducibile e integrabile nella vita lavorativa quotidiana, FileMaker è una soluzione inaspettatamente matura. D'altra parte, chi vuole sperimentare, capire e superare i limiti dei parametri standard si trova meglio nel mondo open source.
Differenze di qualità: cosa conta davvero
Nonostante tutte le discussioni su framework, formati e comandi, non bisogna dimenticare una cosa: La qualità della messa a punto del LoRA non è determinata dallo strumento, ma da ciò che gli si dà in pasto. Un set di dati strutturato in modo pulito, contenente richieste formulate in modo chiaro e risposte realistiche, ha un impatto maggiore sul risultato finale rispetto a qualsiasi tasso di apprendimento o dimensione del batch. Questo vale sia per l'addestramento con FileMaker che per le prove basate su PEFT.
Tuttavia, vale la pena dare un'occhiata alle differenze che hanno un'influenza indiretta sulla qualità. Nell'ambiente classico, di solito si lavora con grandi quantità di dati, il che comporta una certa dose di varianza. I modelli addestrati su questi set di dati tendono a rispondere in modo più ampio ma meno preciso. Spesso sviluppano una certa "ampiezza di linguaggio", che è impressionante in applicazioni generiche, ma può portare all'arbitrarietà in ambienti specializzati. FileMaker, invece, promuove il contrario: qui i dati sono selezionati e curati in modo specifico, spesso direttamente da una tabella che riflette il contesto aziendale reale. Ciò si traduce in una naturale focalizzazione: il modello non apprende tutto, ma solo ciò che è rilevante.
Il processo incapsulato garantisce una migliore stabilità
Un altro punto è la riproducibilità. La formazione LoRA classica viene solitamente eseguita in ambienti che cambiano rapidamente a causa di aggiornamenti di versione, driver della GPU o modifiche alle librerie. Una formazione che funziona oggi può fallire domani. FileMaker elimina questa incertezza incapsulando l'intero processo. L'AI Model Server utilizza un runtime MLX chiaramente definito che non dipende dall'utente o dalla connessione a Internet. Sebbene questo comporti una minore flessibilità, si traduce anche in una maggiore stabilità, che è proprio ciò che è cruciale negli scenari produttivi.
Anche la valutazione dei risultati è diversa. Nel mondo dell'open source, la qualità viene spesso misurata con metriche quantitative - perplessità, accuratezza, punteggio BLEU. FileMaker, invece, lavora in modo più silenzioso: il risultato è evidente nella vita di tutti i giorni, quando un sistema risponde improvvisamente in modo più preciso alle domande interne o quando un testo generato automaticamente suona più naturale. Si tratta di differenze qualitative, basate sull'esperienza: il modo in cui un modello reagisce a termini familiari, il modo in cui coglie la tonalità specifica dell'azienda o il modo in cui "allucina" meno i termini tecnici.
Infine, non bisogna sottovalutare il fattore tempo. La formazione PEFT con Axolotl o kohya_ss può facilmente richiedere molte ore o addirittura giorni, compresa la preparazione e la post-elaborazione. La formazione su FileMaker, invece, può essere attivata in pochi minuti e portata avanti in parallelo con altre attività. Questa velocità cambia il modo di lavorare con i sistemi di intelligenza artificiale: Un progetto tecnico diventa un processo quotidiano.
Il risultato dimostra che la differenza qualitativa non risiede tanto nelle prestazioni del modello quanto nella disponibilità e nell'usabilità. I LoRA di FileMaker sono spesso più piccoli, più mirati e più stabili, ed è proprio questo che li rende preziosi per i processi di lavoro reali. I LoRA PEFT, invece, possono essere più profondi, più adattabili e, al limite, più potenti se addestrati correttamente. È come confrontare una macchina di precisione con un laboratorio universale: Entrambi hanno la loro utilità, ma servono a scopi diversi.
E forse è proprio questa la lezione di questo nuovo sviluppo: la qualità non è solo una questione di numeri, ma di affidabilità, chiarezza e capacità di inserire la conoscenza in un quadro organizzato. FileMaker 2025 dimostra che, anche in un mondo pieno di esperimenti, a volte la soluzione prudente e integrata produce risultati migliori.
Portabilità e sostenibilità - tra mondi diversi
Se si guarda al panorama dei formati dei modelli di oggi, viene quasi da pensare ai primi anni dei computer, quando ogni sistema parlava la propria lingua. Quelli che un tempo erano formati di dischi ora sono formati di tensori: GGUF, safetensor, ckpt, MLX. Ogni framework, ogni motore sembra mantenere la propria logica. E proprio come un tempo si aveva bisogno di cavi adattatori per passare da Windows a Mac, oggi si ha bisogno di script di conversione, a volte da MLX a GGUF, a volte viceversa.
FileMaker 2025 fa deliberatamente un punto della situazione. Il nuovo AI Model Server utilizza esclusivamente MLX come backend, il framework sviluppato da Apple per il proprio Silicon. MLX è ancora giovane, ma concettualmente forte: consente l'addestramento, l'inferenza e la messa a punto LoRA in un formato di memoria coerente, ottimizzato per i core neurali degli M-Chip. La decisione di Claris di adottare questo sistema non è quindi casuale. Segue la filosofia di creare un ambiente stabile e controllato che possa essere gestito completamente a livello locale.
Questo ha conseguenze sulla portabilità. Un modello LoRA addestrato in FileMaker ha automaticamente il prefisso fm-mlx- e può essere utilizzato direttamente nel runtime MLX. Tuttavia, se si desidera utilizzarlo in un altro ambiente, ad esempio in LM Studio, Ollama o llama.cpp, è necessario effettuare una conversione. Questo è tecnicamente possibile, ma non ancora banale. Sebbene esistano strumenti iniziali in grado di trasferire i modelli MLX a GGUF, non esiste ancora un ponte standardizzato. La ragione non risiede tanto nella matematica quanto nell'organizzazione: MLX è incentrato su Apple, mentre GGUF è guidato dalla comunità. Entrambi i sistemi si stanno sviluppando rapidamente, ma in modo indipendente l'uno dall'altro.
In pratica, questo significa che chiunque lavori con FileMaker rimane inizialmente all'interno di un ecosistema chiuso ma stabile. Per molti casi d'uso, questo non è uno svantaggio, anzi. La certezza che un modello venga formato, archiviato e utilizzato nello stesso ambiente presenta vantaggi che vanno ben oltre la convenienza tecnica. Riguarda questioni di tracciabilità, sovranità dei dati e longevità. Mentre i framework open source spesso vivono in cicli di innovazione brevi, FileMaker è tradizionalmente sinonimo di coerenza. I modelli che vengono formati oggi saranno ancora eseguibili nella stessa forma tra due o tre anni - e questo è un valore che difficilmente può essere sopravvalutato nel contesto aziendale.
Tuttavia, il desiderio di intercambiabilità rimarrà. È ipotizzabile, e quasi inevitabile a lungo termine, che Claris offra in futuro funzioni di esportazione, ad esempio verso GGUF o ONNX. Ciò consentirebbe di utilizzare i modelli al di fuori del mondo FileMaker senza perdere il loro nucleo. È altrettanto probabile che MLX stesso cresca sempre di più nel mondo open source e che le barriere tra ambienti Apple e non Apple scompaiano lentamente.
Per il momento, tuttavia, FileMaker si basa su una base ben definita: stabilità piuttosto che diversità, semplicità e sovraccarico. È una decisione che non piacerà a tutti, ma che ha senso a lungo termine. Perché in un mondo in cui tutto è possibile allo stesso tempo, ciò che funziona in modo affidabile avrà ancora una volta un peso.
Conclusione - Dall'esperimento allo strumento
Alla fine, rimane la consapevolezza che FileMaker 2025 non ha semplicemente introdotto una nuova funzione con il suo comando LoRA, ma ha inviato un segnale. Un segnale che indica che la formazione sull'intelligenza artificiale non è più un privilegio da specialisti, ma può entrare a far parte dei normali processi aziendali. L'integrazione di LoRA in un sistema che da decenni è sinonimo di stabilità, tracciabilità e facilità d'uso segna un punto di svolta, non nella ricerca, ma nella pratica.
La formazione LoRA classica, con kohya_ss o PEFT, manterrà il suo posto. Rimarrà il regno degli sviluppatori, dei ricercatori e degli hobbisti - coloro che vogliono capire come si comportano i modelli in dettaglio, che vogliono esaminare ogni matrice di peso individualmente. Questa apertura ha il suo valore, è la base del progresso. Ma il prezzo per questo è lo sforzo, l'incertezza e una certa fragilità.
FileMaker, invece, sceglie l'altra strada: riduce la complessità all'essenziale e trasforma un processo complicato in una routine ripetibile. La messa a punto diventa un comando di script, il modello diventa parte di un database, l'AI diventa uno strumento tra i tanti. Questo non rende la tecnologia più piccola, ma più tangibile. Perde il suo carattere sperimentale e si adatta all'uso quotidiano.
La differenza qualitativa non sta nella potenza di calcolo o nella gamma di parametri, ma nell'approccio. Mentre molte piattaforme di IA sommergono l'utente di opzioni, Claris segue una strada più tranquilla, quella dell'integrazione. Tutto avviene comunque dove si trovano i dati. Non si tratta di un trucco tecnologico, ma dell'espressione di una filosofia: i processi devono stare insieme, non uno accanto all'altro.
Forse è questo il vero progresso: la costante ricerca di nuove possibilità si è finalmente trasformata in uno strumento che può essere compreso, utilizzato e controllato. FileMaker 2025 mette LoRA dove deve stare: nelle mani di chi lavora con i dati, non solo nei laboratori di chi li ricerca.
E così il cerchio si chiude: dalla caotica finestra del terminale alle prime messe a punto sperimentali al comando di script che fa lo stesso - solo pulito, strutturato e comprensibile. Un cambiamento silenzioso ma significativo. Perché a volte il mondo non cambia per ciò che viene reinventato, ma per ciò che finalmente funziona.
Nel prossimo articolo descriveremo come si può addestrare un modello linguistico nella pratica, utilizzando un esempio di script con FileMaker.
Domande frequenti
- Che cos'è esattamente il LoRA e a cosa serve quando si addestrano i modelli linguistici?
LoRA è l'acronimo di Low-Rank Adaptation. Si tratta di un processo in cui solo una piccola parte dei parametri del modello viene regolata per adattare un modello linguistico di grandi dimensioni a compiti o stili di scrittura specifici. Invece di modificare miliardi di pesi, vengono addestrate matrici aggiuntive di piccole dimensioni ("adattatori"). Ciò consente di risparmiare memoria, tempo e potenza di calcolo. Il modello di base rimane invariato, il che rende i modelli LoRA particolarmente flessibili ed efficienti dal punto di vista delle risorse. - Qual è la differenza tra la formazione FileMaker LoRA e la formazione PEFT classica con Axolotl o kohya_ss?
In sostanza, non molto: entrambi utilizzano la stessa idea matematica. La differenza sta nell'ambiente. L'addestramento PEFT viene eseguito in framework aperti con un gran numero di leve, di solito tramite librerie Python. FileMaker, invece, integra il processo nel suo AI Model Server. L'addestramento viene eseguito localmente tramite MLX sui sistemi Apple Silicon e viene eseguito tramite Scrittura controllato. L'attenzione è rivolta alla stabilità e all'integrazione piuttosto che alla libertà di ricerca. - Che cos'è l'AI Model Server in FileMaker 2025?
L'AI Model Server è un componente locale che fornisce, addestra ed esegue modelli di testo, interamente su hardware Apple Silicon. Costituisce la base tecnica per tutte le funzioni di AI in FileMaker, compresa la generazione, l'incorporazione e la messa a punto del testo. Ciò consente a un'azienda di utilizzare i modelli di IA senza trasferire i dati su cloud esterni. - Come funziona un corso di formazione LoRA in FileMaker 2025?
L'utente chiama il nuovo comando Fine-Tune Model nello script. L'input è costituito da una tabella del database FileMaker (ad esempio, con prompt e risposte) o da un file JSONL esterno con una struttura di chat. L'addestramento viene quindi avviato localmente tramite l'AI Model Server. Al termine, viene generato un nuovo modello con il prefisso fm-mlx-..., che può essere utilizzato immediatamente negli script o nei layout. - Quali parametri possono essere impostati per la formazione su FileMaker?
FileMaker consente alcuni parametri specifici ma decisivi:
- passi_massimi - Numero di fasi di formazione
- tasso_di_apprendimento - Tasso di apprendimento
- dimensione_lotto - Dimensione dei lotti di formazione
- lora_layers - Numero di livelli dell'adattatore
In questo modo la formazione rimane chiara senza il rischio di configurazioni errate. - Quali sono i vantaggi della formazione tramite FileMaker rispetto agli strumenti tradizionali?
Il vantaggio maggiore sta nell'integrazione. Si lavora direttamente con i dati già disponibili nel sistema e si risparmiano impostazioni, variabili d'ambiente, installazioni di pacchetti o configurazioni di GPU. Inoltre, tutto rimane locale e riproducibile. Questo è un argomento decisivo per le aziende: protezione dei dati, tracciabilità e semplicità di manutenzione. - FileMaker-LoRA è di qualità inferiore rispetto a un PEFT-LoRA?
Non fondamentalmente. Il metodo sottostante è identico. Le differenze derivano dalla dimensione del set di dati, dalla selezione dei parametri e dalla valutazione. FileMaker si basa su impostazioni predefinite stabili e su set di dati strutturati, mentre le configurazioni PEFT offrono un maggiore margine di sperimentazione. In molti casi, FileMaker ottiene persino risultati più coerenti, perché il numero di variabili soggette a errori è minore. - FileMaker può essere utilizzato anche per addestrare modelli di base più grandi, ad esempio Llama 3 o Mistral?
Sì, purché il modello di base sia in formato MLX e sia supportato da AI Model Server. FileMaker è ottimizzato per modelli basati su testo che vengono eseguiti localmente sui chip Apple Silicon. Tuttavia, i modelli molto grandi sono limitati dalla capacità della RAM e della GPU: di solito sono adatti modelli fino a circa 8-14 miliardi di parametri. - Posso utilizzare un modello addestrato con FileMaker al di fuori di FileMaker?
Attualmente solo con restrizioni. Il modello è disponibile in formato MLX ed è destinato direttamente all'AI Model Server. Esistono strumenti di conversione iniziali per l'esportazione in altri formati (ad esempio GGUF, ONNX), ma sono ancora sperimentali. Claris potrebbe supportare ufficialmente questa funzione in futuro. - Quali sono i requisiti hardware per la formazione in FileMaker?
È necessario un Mac con un chip Apple Silicon (M1, M2, M3 o più recente). L'addestramento utilizza il motore neurale e le unità GPU del chip. I Mac Intel non sono supportati. Per set di dati più grandi, si consiglia di utilizzare almeno 16 GB di RAM, preferibilmente 32 GB o più. - Che dire della protezione e della sicurezza dei dati nella formazione su FileMaker?
La formazione si svolge interamente a livello locale. Non vengono trasferiti dati a terzi e non viene utilizzata alcuna API cloud. Per le aziende che lavorano con dati riservati o personali, questo è un vantaggio decisivo rispetto ai servizi di intelligenza artificiale esterni. - È possibile eseguire più modelli contemporaneamente in FileMaker?
L'AI Model Server supporta attualmente un modello alla volta. Tuttavia, è possibile creare un numero qualsiasi di modelli e caricarli o scaricarli a seconda delle necessità. Questa limitazione serve a garantire la stabilità e la prevedibilità del sistema. - Qual è la differenza di formazione tra FileMaker e LoRA classico?
È notevole. Mentre una configurazione PEFT classica richiede spesso ore o giorni di preparazione (installazione, dipendenze, test), FileMaker è pronto in pochi minuti. Anche il processo di formazione è più veloce, perché MLX funziona in modo molto efficiente su Apple Silicon. Questo fa risparmiare tempo e nervi, anche se si perde un po' di controllo. - Quali tipi di dati testuali sono più adatti per la formazione?
L'ideale sono i dati strutturati, simili a dialoghi: Richieste dei clienti, discussioni di assistenza, database di conoscenze interne, FAQ o testi tecnici. È importante che i dati siano formulati in modo chiaro e abbiano uno schema riconoscibile. LoRA non apprende "contenuti", ma strutture linguistiche e contestuali: la qualità batte la quantità. - Come si può valutare la qualità di un modello FileMaker LoRA?
Non con metriche astratte, ma nell'uso pratico. Si verifica se il modello risponde in modo coerente alle domande interne, se utilizza correttamente i termini tecnici e se la tonalità corrisponde allo stile desiderato. FileMaker consente di effettuare semplici test di confronto, ad esempio utilizzando script che inviano richieste a diversi modelli e salvano le risposte. - È possibile cancellare o sovrascrivere un modello FileMaker LoRA?
Sì, i modelli perfezionati possono essere gestiti, eliminati o sostituiti nella console amministrativa dell'AI Model Server. Poiché i modelli di base rimangono invariati, il rischio è ridotto al minimo. È possibile riqualificare in qualsiasi momento senza perdere il punto di partenza. - Come si colloca FileMaker rispetto al cloud fine-tuning con OpenAI o Anthropic?
FileMaker offre un controllo locale, mentre i servizi cloud di solito si allenano sul lato server e restituiscono i risultati tramite API. Lo svantaggio del cloud: costi elevati, protezione limitata dei dati e nessun accesso diretto al modello. FileMaker ottiene l'opposto: piena sovranità dei dati, nessuna dipendenza da terzi, ma limitatamente all'hardware Apple. - Quanto è stabile MLX come piattaforma per la formazione LoRA?
MLX è ancora giovane, ma tecnicamente maturo. È stato sviluppato da Apple specificamente per le reti neurali su chip M e offre prestazioni sorprendentemente elevate con un basso consumo energetico. Insieme a FileMaker, sembra una base solida per le applicazioni di IA locali, anche se attualmente il supporto della comunità è inferiore a quello di PyTorch. - In futuro FileMaker supporterà anche l'esportazione in formati aperti?
È probabile. Negli ultimi anni Claris ha sottolineato più volte di voler sostenere gli standard aperti a lungo termine. L'esportazione in GGUF o ONNX sarebbe il logico passo successivo per integrare la formazione FileMaker in ambienti esterni (ad esempio LM Studio o Ollama). Questo non è ancora stato annunciato ufficialmente, ma è tecnicamente possibile. - Il passaggio a FileMaker-LoRA vale la pena per gli utenti esperti di PEFT?
Dipende dall'obiettivo. Se si vuole condurre una ricerca approfondita, confrontare le metriche o testare le proprie architetture, è meglio attenersi ad Axolotl o a LaMA-Factory. Chi ha bisogno di una formazione stabile e ripetibile in un ambiente controllato, ad esempio per assistenti interni, linguaggi specializzati o automazione dei processi, troverà in FileMaker una soluzione straordinariamente elegante.

Markus Schall sviluppa database personalizzati, interfacce e applicazioni aziendali basate su Claris FileMaker dal 1994. È un partner di Claris, vincitore del premio FMM 2011 e sviluppatore del programma Software ERP gFM-Business. È anche autore di libri e fondatore dell'associazione M. Schall Editore.
