Qualquer pessoa que tenha tentado seriamente treinar o seu próprio modelo LoRA em 2023 ou 2024 - seja com kohya_ss, Axolotl ou outra cadeia de ferramentas baseada em PEFT - sabe que existe frequentemente um grande fosso entre a teoria e a prática. No papel, parece simples: carregar um modelo de base, preparar os seus próprios dados de treino, ajustar os parâmetros e pronto. Na realidade, acaba muitas vezes numa selva de versões Python, erros CUDA, bibliotecas inconsistentes e formatos de memória defeituosos. Alterna-se entre safetensors, ckpt, GGUF ou, mais recentemente, MLX, sem saber sempre qual o formato atualmente compatível - e porque não. Mesmo pequenas alterações na configuração podem causar falhas em treinos inteiros e, se pretender utilizar um modelo num ambiente diferente, é frequentemente confrontado com a próxima ronda de conversões.
É precisamente nesta situação que se começa a compreender o verdadeiro significado da expressão "adaptação low-rank": Não só porque se está a adaptar modelos de baixo nível, mas porque se está a tornar humilde - face à complexidade destes sistemas. E, no entanto, é precisamente este método que é a chave para adaptar grandes modelos linguísticos de uma forma eficiente, com economia de recursos e específica de um domínio.
Agora a Claris está a entrar em cena com a FileMaker 2025 - um ambiente que era anteriormente conhecido por coisas completamente diferentes: soluções de bases de dados, processos empresariais, fluxos de trabalho claramente estruturados.
E, de repente, aparece uma etapa do script que se chama simplesmente "Fine-Tune Model". Um comando que menciona a palavra "LoRA" no mesmo fôlego que "FileMaker". Qualquer pessoa que tenha passado os últimos anos a frequentar cursos de formação clássicos sobre LoRA irá inevitavelmente esfregar os olhos. Porque a pergunta é óbvia: isto pode mesmo funcionar - e se sim, a que nível?
Esta curiosidade é justificada. Afinal, enquanto as pessoas costumavam passar horas a mexer na linha de comandos, a FileMaker oferece agora a perspetiva de treinar "com um clique do rato" - diretamente num ambiente que já contém os dados com os quais pretende treinar. Uma mudança de paradigma: longe do laboratório experimental e em direção a uma caixa de ferramentas produtiva. Mas é claro que o ceticismo continua a ser apropriado. Porque por mais encantadora que seja esta ideia, a verdadeira questão é: o que está a acontecer tecnicamente? Trata-se de uma afinação genuína e completa do LoRA ou de uma versão abstrata e simplificada? E em que é que os resultados diferem qualitativamente das formações efectuadas com métodos tradicionais?
Antes de podermos julgar isto, vale a pena fazer uma breve retrospetiva - do princípio em si, da ideia subjacente ao LoRA, que nos permitiu repensar grandes modelos num espaço pequeno.
Para o novo Funções de IA da FileMaker 2025 Markus Schall publicou um artigo separado no seu site. O artigo seguinte é agora sobre o ajuste fino de um modelo de linguagem LoRA diretamente a partir da FileMaker. No próximo artigo, descreveremos como um modelo de linguagem pode ser treinado na prática com o FileMaker.
Afinal, o que é a LoRA? - Uma breve análise do princípio
LoRA significa Low-Rank Adaptation, e este nome descreve o método com precisão. Trata-se de uma técnica em que uma grande rede neural não é completamente retreinada, mas apenas adaptada em determinadas matrizes de peso de forma comprimida. Mais concretamente, algumas camadas do modelo são dotadas de pequenas matrizes adicionais que formam os chamados "adaptadores". Estes adaptadores aprendem padrões novos, específicos da tarefa, durante o processo de afinação, sem alterar os pesos originais do modelo. Isto tem duas grandes vantagens: em primeiro lugar, poupa memória e poder de computação e, em segundo lugar, o modelo básico permanece inalterado - pelo que é possível criar, combinar e, se necessário, remover vários ajustes finos na mesma base.
Esta ideia nasceu originalmente de uma necessidade. O ajuste fino completo era simplesmente demasiado caro. O treino de um modelo com vários milhares de milhões de parâmetros requer não só um hardware potente, mas também enormes quantidades de dados e um controlo preciso. O LoRA, por outro lado, apresentou uma solução pragmática: em vez de alterar toda a rede, apenas alguns pesos adicionais são optimizados - normalmente um a dois por cento do volume total. Isto tornou o ajuste fino uma opção realista para utilizadores individuais, start-ups e grupos de investigação.
Basicamente, o LoRA simboliza a mudança que o desenvolvimento da IA sofreu. Enquanto no passado a formação era feita a partir do zero, atualmente falamos de adaptação: adaptar os conhecimentos existentes em vez de forçar novos conhecimentos. É o equivalente, para as máquinas, àquilo a que se pode chamar experiência na aprendizagem humana - o modelo aprende a encontrar o seu caminho num novo ambiente sem perder a sua identidade.
Outra vantagem do LoRA é a sua modularidade. Uma vez treinado, um adaptador LoRA pode ser carregado ou descarregado como um módulo adicional. Isto cria variantes especializadas de um modelo básico - por exemplo, um modelo de chat especializado em textos médicos, um modelo para linguagem jurídica ou um modelo que reflicta o estilo de uma determinada empresa. Na prática, o processo estabeleceu-se tanto para modelos de texto como de imagem, sendo que os princípios subjacentes permanecem os mesmos: pequenas adaptações diferenciadas em vez de grandes intervenções globais.
Mas mesmo que o processo em si seja elegante, a sua implementação continua a ser um desafio. O ambiente de formação, a preparação dos dados e os hiperparâmetros corretos determinam o sucesso ou o fracasso. É precisamente aqui que se torna evidente a diferença crucial entre as cadeias de ferramentas clássicas de código aberto, tais como Axolotl, LLaMA-Factory ou kohya_ss e a nova solução integrada na FileMaker 2025. Ambas utilizam a mesma ideia matemática - mas inserem-na em contextos técnicos e conceptuais completamente diferentes.
E é precisamente aqui que entra a nossa comparação: na tentativa de compreender dois mundos que falam a mesma língua mas pensam de forma muito diferente.
A forma clássica - treino LoRA com kohya_ss e PEFT
Os que preferem a forma clássica de Formações LoRA O ritual é familiar a qualquer pessoa que já tenha utilizado um adaptador LoRA: primeiro a instalação do Python, depois a versão correta do PyTorch, depois os controladores NVIDIA apropriados - e no final há sempre a mesma incerteza sobre se tudo se harmoniza entre si. O Kohya_SS, originalmente concebido para o treino de modelos visuais, tornou-se nos últimos anos uma espécie de solução universal para todos os que pretendem criar adaptadores LoRA, seja para imagens ou para texto. O sistema utiliza os mesmos princípios que a biblioteca PEFT da Hugging Face - só que numa interface gráfica mais conveniente.
O processo segue sempre o mesmo padrão. Começa-se com um modelo básico, como um derivado de Llama ou Mistral. Os dados de treino são então preparados - normalmente sob a forma de ficheiros JSONL com estruturas de funções ("utilizador" e "assistente"), mas por vezes também como simples listas de perguntas e respostas. Os parâmetros devem então ser definidos: Taxa de aprendizagem, classificação LoRA, camada adaptadora, tamanho do lote, optimizador, diretórios de destino. Só esta fase separa os amadores dos pacientes, pois cada uma destas definições pode fazer a diferença entre o sucesso e o fracasso.
O que se segue é a fase de treino propriamente dita - muitas vezes acompanhada por um sentimento entre a esperança e o ceticismo. Enquanto o GPU calcula durante horas, observa-se a curva de perdas com curiosidade e, no entanto, nunca se sabe ao certo se o resultado no final é realmente melhor do que antes. Por vezes, o treino termina com uma mensagem de erro, outras vezes com um ficheiro que já não pode ser carregado mais tarde. E se for bem sucedido, o próximo desafio espera-o: converter o modelo acabado num formato que possa ser utilizado noutros ambientes. Um adaptador que está disponível como tensores de segurança tem frequentemente de ser convertido para GGUF ou MLX - dependendo da plataforma de destino. Ocasionalmente, os tensores perdem-se no processo e, se tivermos azar, voltamos à estaca zero.
Apesar de todos estes obstáculos, a via clássica tem um certo atrativo. É honesta, transparente e é possível sentir o que está a acontecer em segundo plano a cada passo. Podemos ver os pesos, podemos alterar os parâmetros individualmente, temos controlo total. E foi precisamente esse o encanto deste mundo durante muito tempo: recompensava aqueles que lutavam para abrir caminho na selva. Quem treinou com sucesso o seu próprio modelo LoRA pela primeira vez, sentiu-se como se tivesse subido a um cume.
Mas, a dada altura, coloca-se a questão de saber se este esforço continua a ser adequado. Afinal de contas, o objetivo continua a ser o mesmo - criar um modelo que se adapte a uma língua, estilo ou domínio de atividade específicos. O método é bom, mas chegar lá é muitas vezes difícil. Por isso, há um desejo crescente de um ambiente em que tudo isto deixe de ser um projeto de fim de semana e passe a ser uma ferramenta de trabalho.
FileMaker 2025 - Ajuste fino do LoRA via script
Com FileMaker 2025 A Claris atreveu-se agora a dar precisamente este passo - e, pode dizer-se, fê-lo com uma certa elegância. Pela primeira vez, uma empresa clássicaBase de dados um comando que dá pelo nome de "Fine-Tune Model". Por detrás desta expressão simples, esconde-se uma ideia notável: a formação LoRA, anteriormente um tópico para especialistas, é integrada diretamente no fluxo de trabalho diário.
Tecnicamente, isto é feito através do chamado Modelo de IA Servidorque é executado localmente nos sistemas Apple Silicon e é baseado na estrutura MLX da Apple. Este sistema encarrega-se de todas as etapas de cálculo - desde o carregamento do modelo de base até à criação da camada de adaptação. O utilizador só tem de especificar quais os dados a serem treinados e pode fazê-lo de duas formas: através de um ficheiro FileMakerTabela - por exemplo, uma coleção de pedidos de informação de clientes, diálogos de apoio ou fragmentos de texto - ou através de um ficheiro JSONL externo em formato de chat. Isto elimina a necessidade de uma preparação de dados demorada fora do sistema; trabalha-se diretamente com os registos de dados que já estão disponíveis na empresa.
A seleção de parâmetros também foi significativamente simplificada. Em vez de vinte parâmetros, existem apenas alguns, mas decisivos - max_steps, learning_rate, batch_size e lora_layers. Os restantes valores são predefinidos no motor. Esta redução não é uma desvantagem, mas uma expressão de uma filosofia de design clara: a FileMaker não se destina a ser uma plataforma de investigação, mas uma ferramenta que fornece resultados estáveis e reproduzíveis.
O ajuste fino em si é executado como qualquer outro comando de script: O utilizador chama "Fine-Tune Model", passa o nome do modelo e a localização de armazenamento, e a FileMaker passa o resto para o AI Model Server. A formação ocorre completamente localmente - sem a nuvem, sem uma API de terceiros, sem risco de proteção de dados. O resultado é um novo modelo com o prefixo fm-mlx- que pode ser utilizado diretamente no ambiente FileMaker para geração de texto, classificação ou funções de diálogo.
Processo de formação LoRA significativamente mais simples com FileMaker
Qualquer pessoa que já tenha tido a experiência clássica do LoRA ficará provavelmente surpreendida com a primeira execução: sem terminal, sem inundação de registos, sem mensagens de erro enigmáticas. Em vez disso, há uma barra de progresso clara e um resultado reproduzível. É claro que pode criticar o facto de ter menos controlo - sem acesso a optimizadores exóticos, sem experiências com QLoRA ou congelamento de camadas - mas é precisamente esse o objetivo. O Claris não se destina a investigadores, mas a utilizadores que pretendem trabalhar de forma produtiva com os seus próprios dados.
Isto muda fundamentalmente o carácter da formação LoRA. Um processo experimental torna-se um processo planeável. No futuro, as empresas poderão adaptar os seus próprios modelos linguísticos internos sem terem de ser elas próprias a operar a infraestrutura. Os dados permanecem na empresa, os processos são documentados e os resultados podem ser versionados e automatizados como qualquer outro componente da FileMaker.
Naturalmente, o ceticismo também é permitido aqui. O AI Model Server ainda está ligado ao Apple Silicon e continua a faltar um acesso aprofundado aos parâmetros. Mas o caminho é claro: onde costumava levar semanas para configurar, agora leva apenas alguns minutos. E onde costumava ser trabalhoso alternar entre formatos de armazenamento, agora basta um comando de script.
Ao fazê-lo, a FileMaker conseguiu algo que é raro no cenário da IA: não tentou fazer "mais", mas "menos" - e de uma forma que enfatiza a verdadeira força da plataforma. Estrutura em vez de caos, integração em vez de fragmentação.
Comparação prática - MLX-LoRA vs. PEFT-LoRA
Se colocarmos as duas abordagens lado a lado, notaremos à partida que fazem essencialmente a mesma coisa - adaptar um modelo linguístico existente com a ajuda de pesos de adaptação adicionais. Mas a forma de o conseguir não podia ser mais diferente. Enquanto o mundo do código aberto vê o LoRA como um sistema modular flexível, a Claris vê-o como parte de um fluxo de trabalho claramente definido. Alguns fazem experiências com cada componente, outros integram-nos sem problemas num ambiente fechado.
A abordagem clássica PEFT (Parameter-Efficient Fine-Tuning) - por exemplo, através do Axolotl, do LLaMA-Factory ou do kohya_ss - permite controlar todos os pormenores do processo de formação. É possível definir especificamente que camadas são adaptadas, que taxas de aprendizagem são utilizadas, como os gradientes são tratados, como a memória é guardada ou como os tamanhos dos lotes são variados. Esta liberdade é poderosa, mas requer experiência e sensibilidade. Mesmo pequenos erros na configuração conduzem a modelos inutilizáveis ou a execuções não convergentes. A vantagem reside na sua natureza científica: se quiser compreender porque é que um modelo se comporta da forma que se comporta, este é o melhor ponto de partida.
A FileMaker 2025 é bastante diferente, onde o LoRA não é entendido como uma ferramenta de pesquisa, mas como uma função operacional - parte de um sistema que processa informação em vez de a pesquisar. O novo comando de script abstrai muitos detalhes técnicos sem distorcer a ideia básica. O ajuste fino é executado em segundo plano no AI Model Server, controlado por alguns parâmetros simples. Tudo o que anteriormente se encontrava em ficheiros YAML ou comandos shell é vertido para um script FileMaker familiar. O resultado é menos espetacular, mas mais estável - um processo reproduzível que pode ser documentado, automatizado e integrado na lógica da empresa.
Pode descrever-se a diferença da seguinte forma: A forma clássica é como mexer num motor, onde cada junta é visível e cada ajuste é manual. A FileMaker, por outro lado, cobriu o motor e colocou um botão de arranque junto a ele. O resultado pode ser menos excitante para os amadores, mas o arranque é fiável.
No que se refere aos resultados, a qualidade em ambos os casos depende dos mesmos factores: a qualidade dos dados, a adequação da taxa de aprendizagem e o modelo de base. As diferenças resultam mais da natureza do ambiente do que do próprio método. Pela sua própria natureza, a FileMaker trabalha com conjuntos de dados fechados - normalmente corpora específicos de aplicações ou empresas. Isto significa conjuntos de dados mais limpos mas mais pequenos. No mundo do código aberto, por outro lado, são normalmente utilizados conjuntos de dados grandes e mistos, muitas vezes provenientes de uma grande variedade de fontes. Este facto pode conduzir a resultados mais robustos, por um lado, mas mais inconsistentes, por outro.
O resultado é claro: a FileMaker fornece um modelo estável e utilizável em menos tempo, enquanto a formação baseada no PEFT oferece mais potencial, mas também mais incerteza. Assim, se pretende um processo reproduzível que possa ser integrado na vida profissional quotidiana, a FileMaker é uma solução inesperadamente madura. Por outro lado, aqueles que querem experimentar, compreender e ir além dos limites dos parâmetros padrão estão melhor no mundo do código aberto.
Diferenças de qualidade - o que realmente conta
Apesar de todas as discussões sobre quadros, formatos e comandos, há uma coisa que não deve ser esquecida: A qualidade do ajuste fino do LoRA não é determinada pela ferramenta, mas pelo que lhe é dado. Um conjunto de dados estruturado de forma limpa, que contenha prompts claramente formulados e respostas realistas, tem um impacto maior no resultado final do que qualquer taxa de aprendizagem ou tamanho de lote. Isto é verdade tanto para a formação FileMaker como para as execuções baseadas em PEFT.
No entanto, vale a pena analisar as diferenças que têm uma influência indireta na qualidade. No ambiente clássico, trabalha-se normalmente com grandes quantidades de dados, o que implica uma certa variação. Os modelos que são treinados com esses conjuntos de dados tendem a responder de forma mais ampla, mas menos precisa. Muitas vezes desenvolvem uma certa "amplitude de linguagem", o que é impressionante em aplicações genéricas, mas pode levar à arbitrariedade em ambientes especializados. A FileMaker, por outro lado, promove o oposto: aqui, os dados são especificamente selecionados e organizados, muitas vezes diretamente a partir de uma tabela que reflecte o contexto real do negócio. Isto resulta numa focalização natural - o modelo não aprende tudo, mas o que é relevante.
O processo de encapsulamento garante uma melhor estabilidade
Outro ponto é a reprodutibilidade. A formação clássica em LoRA é normalmente executada em ambientes que mudam rapidamente devido a actualizações de versões, drivers de GPU ou alterações de bibliotecas. O treinamento que funciona hoje pode falhar amanhã. A FileMaker acaba com esta incerteza ao encapsular todo o processo. O AI Model Server utiliza um tempo de execução MLX claramente definido que não depende do utilizador ou da ligação à Internet. Embora isto leve a uma menor flexibilidade, também resulta numa maior estabilidade - e isto é precisamente o que é crucial em cenários produtivos.
A avaliação dos resultados também difere. No mundo do código aberto, a qualidade é frequentemente medida através de métricas quantitativas - perplexidade, exatidão, pontuação BLEU. A FileMaker, por outro lado, trabalha de forma mais discreta: o resultado é evidente no dia a dia, quando um sistema responde subitamente de forma mais precisa a perguntas internas ou quando um texto gerado automaticamente soa mais natural. Estas são diferenças qualitativas, baseadas na experiência - a forma como um modelo reage a termos familiares, como capta a tonalidade específica de uma empresa ou como "alucina" menos com termos técnicos.
Por último, o fator tempo não deve ser subestimado. A formação PEFT com Axolotl ou kohya_ss pode facilmente levar muitas horas ou mesmo dias, incluindo a preparação e o pós-processamento. A formação FileMaker, por outro lado, pode ser acionada em minutos e realizada em paralelo com outras tarefas. Esta velocidade muda a forma como se trabalha com sistemas de IA: Um projeto técnico torna-se um processo diário.
O resultado mostra que a diferença qualitativa reside menos no desempenho do modelo do que na disponibilidade e usabilidade. Os LoRAs da FileMaker são frequentemente mais pequenos, mais focados e mais estáveis - e é precisamente isso que os torna valiosos para processos de trabalho reais. Os PEFT LoRAs, por outro lado, podem ser mais profundos, mais adaptáveis e, no limite, mais poderosos quando treinados corretamente. É como comparar uma máquina de precisão com um laboratório universal: Ambas têm a sua utilidade, mas servem objectivos diferentes.
E talvez esta seja precisamente a lição deste novo desenvolvimento - que a qualidade não é apenas uma questão de números, mas sim de fiabilidade, clareza e capacidade de trazer o conhecimento para uma estrutura organizada. A FileMaker 2025 mostra que, mesmo num mundo repleto de experiências, por vezes a solução prudente e integrada produz os melhores resultados.
Portabilidade e sustentabilidade - entre mundos
Se olharmos para o panorama atual dos formatos de modelos, quase nos lembramos dos primeiros anos da informática, quando cada sistema falava a sua própria língua. O que costumava ser formatos de disco são agora formatos tensoriais: GGUF, safetensors, ckpt, MLX. Cada estrutura, cada motor parece manter a sua própria lógica. E tal como antigamente eram necessários cabos adaptadores para passar do Windows para o Mac, hoje em dia são necessários scripts de conversão - por vezes de MLX para GGUF, outras vezes o contrário.
A FileMaker 2025 faz uma observação deliberada aqui. O novo AI Model Server utiliza exclusivamente o MLX como backend - a estrutura que a Apple desenvolveu para o seu próprio Silicon. O MLX ainda é jovem, mas concetualmente forte: permite a formação, inferência e afinação de LoRA num formato de memória consistente, optimizado para os núcleos neurais dos M-Chips. A decisão da Claris de adotar este sistema não é, portanto, uma coincidência. Segue a filosofia de criar um ambiente estável e controlado que pode ser operado completamente localmente.
Isso tem consequências para a portabilidade. Um modelo LoRA que é treinado no FileMaker tem automaticamente o prefixo fm-mlx- e pode ser usado diretamente no tempo de execução do MLX. No entanto, se você quiser usá-lo em outro ambiente - por exemplo, no LM Studio, Ollama ou llama.cpp - terá que fazer os desvios através de uma conversão. Isso é tecnicamente possível, mas ainda não é trivial. Embora existam ferramentas iniciais que podem transferir modelos MLX para GGUF, ainda não existe uma ponte normalizada. A razão reside menos na matemática do que na organização: o MLX é centrado na Apple, enquanto o GGUF é orientado para a comunidade. Ambos os sistemas estão a desenvolver-se rapidamente, mas de forma independente um do outro.
Na prática, isto significa que qualquer pessoa que trabalhe com a FileMaker permanece inicialmente num ecossistema fechado mas estável. Para muitos casos de utilização, isto não é uma desvantagem - pelo contrário. A certeza de que um modelo é treinado, armazenado e utilizado no mesmo ambiente tem vantagens que vão muito para além da conveniência técnica. Diz respeito a questões de rastreabilidade, soberania dos dados e longevidade. Enquanto as estruturas de código aberto vivem frequentemente em ciclos de inovação curtos, a FileMaker é tradicionalmente sinónimo de consistência. Os modelos que são treinados hoje continuarão a ser executáveis da mesma forma daqui a dois ou três anos - e este é um valor que dificilmente pode ser sobrestimado no contexto empresarial.
No entanto, o desejo de permutabilidade manter-se-á. É concebível - e quase inevitável a longo prazo - que a Claris ofereça funções de exportação no futuro, por exemplo para GGUF ou ONNX. Isto permitiria que os modelos fossem utilizados fora do mundo FileMaker sem perder a sua essência. É igualmente provável que o próprio MLX cresça mais fortemente no mundo do código aberto e que as barreiras entre ambientes Apple e não-Apple desapareçam lentamente.
Por agora, no entanto, a FileMaker mantém-se numa base claramente definida: estabilidade em vez de diversidade, simplicidade em vez de sobrecarga. É uma decisão que não agradará a todos, mas que faz sentido a longo prazo. Porque num mundo em que tudo é possível ao mesmo tempo, o que funciona de forma fiável voltará a ter peso.
Conclusão - Da experiência à ferramenta
No final, fica a constatação de que a FileMaker 2025 não introduziu simplesmente uma nova função com o seu comando LoRA, mas enviou um sinal. Um sinal de que a formação em IA já não é um privilégio de especialistas, mas pode tornar-se parte dos processos empresariais normais. A integração do LoRA num sistema que tem sido sinónimo de estabilidade, rastreabilidade e facilidade de utilização durante décadas marca um ponto de viragem - não na investigação, mas na prática.
A formação clássica em LoRA, seja com kohya_ss ou PEFT, manterá o seu lugar. Continuará a ser o domínio dos programadores, investigadores e amadores - aqueles que querem compreender como os modelos se comportam em pormenor, que querem analisar cada matriz de pesos individualmente. Esta abertura tem o seu valor, é a base do progresso. Mas o seu preço é o esforço, a incerteza e uma certa fragilidade.
A FileMaker, por outro lado, escolhe o outro caminho: reduz a complexidade ao essencial e transforma um processo complicado numa rotina repetível. O ajuste fino torna-se um comando de script, o modelo torna-se parte de uma base de dados, a IA torna-se uma ferramenta entre muitas. Isto não torna a tecnologia mais pequena, mas mais tangível. Perde o seu carácter experimental e ganha adequação à utilização quotidiana.
A diferença qualitativa não está no poder de computação ou na gama de parâmetros, mas na abordagem. Enquanto muitas plataformas de IA inundam o utilizador com opções, a Claris segue um caminho mais calmo - o caminho da integração. De qualquer forma, tudo acontece onde os dados estão localizados. Não se trata de um truque tecnológico, mas da expressão de uma filosofia: os processos devem estar juntos, não uns ao lado dos outros.
Talvez este seja o verdadeiro progresso - que a busca constante por novas possibilidades tenha finalmente se transformado em uma ferramenta que pode ser compreendida, operada e controlada. A FileMaker 2025 coloca o LoRA onde ele pertence: nas mãos daqueles que trabalham com dados, e não apenas nos laboratórios daqueles que os pesquisam.
E assim se fecha o círculo: da caótica janela do terminal, passando pelas primeiras afinações experimentais, até ao comando script que faz o mesmo - só que limpo, estruturado e compreensível. Uma mudança silenciosa mas significativa. Porque às vezes o mundo não muda por causa do que é reinventado, mas por causa do que finalmente funciona.
No próximo artigo, descreveremos como um modelo de linguagem pode ser treinado na prática utilizando um script de exemplo com a FileMaker.
Perguntas mais frequentes
- O que é exatamente o LoRA e para que é utilizado no treino de modelos linguísticos?
LoRA significa Low-Rank Adaptation (adaptação de baixo nível). Trata-se de um processo em que apenas uma pequena parte dos parâmetros do modelo é ajustada para adaptar um modelo linguístico de grandes dimensões a tarefas ou estilos de escrita específicos. Em vez de alterar milhares de milhões de pesos, são treinadas pequenas matrizes adicionais ("adaptadores"). Isto poupa memória, tempo e poder de computação. O modelo básico mantém-se inalterado, o que torna os modelos LoRA particularmente flexíveis e eficientes em termos de recursos. - Qual é a diferença entre a formação FileMaker LoRA e a formação PEFT clássica com Axolotl ou kohya_ss?
No fundo, nem por isso - ambos utilizam a mesma ideia matemática. A diferença reside no ambiente. A formação PEFT é efectuada em estruturas abertas com um grande número de alavancas, normalmente através de bibliotecas Python. A FileMaker, por outro lado, integra o processo no seu AI Model Server. A formação é executada localmente através de MLX em sistemas Apple Silicon e é executada através de Script controlada. A tónica é colocada na estabilidade e na integração e não na liberdade de investigação. - O que é o AI Model Server na FileMaker 2025?
O AI Model Server é um componente local que fornece, treina e executa modelos de texto - inteiramente em hardware Apple Silicon. Constitui a base técnica para todas as funções de IA na FileMaker, incluindo a geração de texto, a incorporação e o ajuste fino. Isto permite a uma empresa utilizar modelos de IA sem transferir dados para nuvens externas. - Como é que um curso de formação LoRA em FileMaker 2025 funciona realmente?
O utilizador chama o novo comando Fine-Tune Model no script. A entrada é uma tabela na base de dados FileMaker (por exemplo, com prompts e respostas) ou um ficheiro JSONL externo com uma estrutura de chat. O treinamento é iniciado localmente por meio do AI Model Server. Após a conclusão, é gerado um novo modelo com o prefixo fm-mlx-..., que pode ser utilizado imediatamente em scripts ou layouts. - Que parâmetros podem ser definidos para a formação FileMaker?
A FileMaker permite alguns parâmetros específicos mas decisivos:
- max_steps - Número de etapas de formação
- taxa de aprendizagem - Taxa de aprendizagem
- tamanho_do_lote - Dimensão dos lotes de formação
- lora_layers - Número de camadas de adaptadores
Isto mantém a formação clara sem o risco de configurações incorrectas. - Quais são as vantagens da formação através da FileMaker em comparação com as ferramentas tradicionais?
A maior vantagem reside na integração. Trabalha-se diretamente com os dados que já estão disponíveis no sistema e poupa-se em configurações, variáveis de ambiente, instalações de pacotes ou configurações de GPU. Além disso, tudo permanece local e reproduzível. Este é um argumento decisivo para as empresas - proteção de dados, rastreabilidade e manutenção simples. - O FileMaker-LoRA é de qualidade inferior a um PEFT-LoRA?
Não fundamentalmente. O método subjacente é idêntico. As diferenças surgem através do tamanho do conjunto de dados, seleção de parâmetros e avaliação. A FileMaker baseia-se em predefinições estáveis e conjuntos de dados estruturados, enquanto as configurações PEFT oferecem mais liberdade experimental. Em muitos casos, o FileMaker até obtém resultados mais consistentes porque há menos variáveis susceptíveis de erros. - A FileMaker também pode ser utilizada para treinar modelos de base maiores, por exemplo, Llama 3 ou Mistral?
Sim, desde que o modelo base esteja no formato MLX e seja suportado pelo AI Model Server. O FileMaker está optimizado para modelos baseados em texto que são executados localmente em chips Apple Silicon. No entanto, modelos muito grandes são limitados pela capacidade de RAM e GPU - modelos com cerca de 8 a 14 biliões de parâmetros são normalmente adequados. - Posso usar um modelo treinado com o FileMaker fora do FileMaker?
Atualmente apenas com restrições. O modelo está disponível no formato MLX e destina-se diretamente ao AI Model Server. Existem ferramentas de conversão iniciais para exportar para outros formatos (por exemplo, GGUF, ONNX), mas ainda são experimentais. A Claris poderá apoiar oficialmente esta função no futuro. - Quais são os requisitos de hardware para a formação em FileMaker?
É necessário um Mac com um chip Apple Silicon (M1, M2, M3 ou mais recente). A formação utiliza o Neural Engine e as unidades GPU do chip. Os Macs Intel não são suportados. Para conjuntos de dados maiores, recomendamos pelo menos 16 GB de RAM, de preferência 32 GB ou mais. - E quanto à proteção e segurança de dados na formação FileMaker?
A formação realiza-se inteiramente a nível local. Não são transferidos dados para terceiros e não é utilizada qualquer API na nuvem. Para as empresas que trabalham com dados confidenciais ou pessoais, esta é uma vantagem decisiva em relação aos serviços de IA externos. - Posso executar vários modelos na FileMaker ao mesmo tempo?
O AI Model Server suporta atualmente um modelo de cada vez. No entanto, pode criar qualquer número de modelos e carregá-los ou descarregá-los conforme necessário. Esta limitação serve a estabilidade e a previsibilidade do sistema. - Qual é a diferença no esforço de formação entre a FileMaker e a LoRA clássica?
É considerável. Enquanto uma configuração PEFT clássica requer muitas vezes horas ou dias de preparação - instalação, dependências, testes - a FileMaker está pronta a funcionar em apenas alguns minutos. O processo de formação em si também é mais rápido porque o MLX funciona de forma muito eficiente no Apple Silicon. Isto poupa tempo e nervos, mesmo que perca algum controlo. - Que tipos de dados de texto são mais adequados para a formação?
Os dados estruturados, do tipo diálogo, são ideais: Pedidos de informação de clientes, discussões de apoio, bases de dados de conhecimentos internos, FAQs ou textos técnicos. É importante que os dados sejam claramente formulados e tenham um padrão reconhecível. O LoRA não aprende "conteúdo", mas estruturas linguísticas e contextuais - a qualidade supera a quantidade. - Como pode ser avaliada a qualidade de um modelo FileMaker LoRA?
Não com métricas abstractas, mas na prática. Verifica-se se o modelo responde de forma consistente a perguntas internas, se utiliza termos técnicos corretamente e se a tonalidade corresponde ao estilo desejado. A FileMaker permite testes de comparação simples, por exemplo, usando scripts que enviam avisos a diferentes modelos e guardam as respostas. - É possível eliminar ou substituir um modelo FileMaker LoRA?
Sim, os modelos ajustados podem ser geridos, eliminados ou substituídos na consola de administração do AI Model Server. Como os modelos de base permanecem inalterados, o risco é minimizado. Pode voltar a treinar em qualquer altura sem perder o ponto de partida. - Como é que a FileMaker se compara ao ajuste fino da nuvem com a OpenAI ou a Anthropic?
A FileMaker oferece controlo local, enquanto os serviços na nuvem normalmente treinam no lado do servidor e devolvem os resultados através da API. A desvantagem da nuvem: custos elevados, proteção de dados limitada e nenhum acesso direto ao modelo. A FileMaker consegue o oposto - total soberania dos dados, sem dependência de terceiros, mas limitada ao hardware da Apple. - Qual é a estabilidade do MLX enquanto plataforma de formação LoRA?
O MLX é ainda jovem, mas tecnicamente maduro. Foi desenvolvido pela Apple especificamente para redes neurais em chips M e oferece um desempenho surpreendentemente elevado com baixo consumo de energia. Em conjunto com a FileMaker, parece ser uma base sólida para aplicações locais de IA, mesmo que atualmente haja menos apoio da comunidade do que com o PyTorch. - A FileMaker também irá suportar a exportação para formatos abertos no futuro?
É provável que isso aconteça. A Claris sublinhou várias vezes nos últimos anos que pretende apoiar as normas abertas a longo prazo. Uma exportação para GGUF ou ONNX seria o próximo passo lógico para integrar a formação FileMaker em ambientes externos (por exemplo, LM Studio ou Ollama). Isto ainda não foi oficialmente anunciado, mas é tecnicamente viável. - A mudança para a FileMaker-LoRA vale a pena para utilizadores experientes do PEFT?
Isso depende do objetivo. Se pretende realizar uma pesquisa aprofundada, comparar métricas ou testar as suas próprias arquitecturas, é melhor ficar com a Axolotl ou a LLaMA-Factory. Aqueles que necessitam de formação estável e repetível num ambiente controlado - para assistentes internos, linguagem especializada ou automatização de processos, por exemplo - encontrarão na FileMaker uma solução notavelmente elegante.

Markus Schall tem vindo a desenvolver bases de dados personalizadas, interfaces e aplicações empresariais baseadas na Claris FileMaker desde 1994. É um parceiro da Claris, vencedor do Prémio FMM 2011 e criador do Software ERP gFM-Business. É também autor de livros e fundador da M. Schall Publishers.
