Saltar enlaces

Del terminal al script: FileMaker 2025 hace que el ajuste fino de LoRA sea apto para el uso diario

Ajuste fino de LoRA con FileMaker 2025

Cualquiera que haya intentado seriamente entrenar su propio modelo LoRA en 2023 o 2024 -ya sea con kohya_ss, Axolotl u otra cadena de herramientas basada en PEFT- sabe que a menudo existe un profundo abismo entre la teoría y la práctica. Sobre el papel, parece sencillo: cargar un modelo base, preparar sus propios datos de entrenamiento, ajustar los parámetros y listo. En la realidad, suele acabar en una jungla de versiones de Python, errores de CUDA, bibliotecas incoherentes y formatos de memoria defectuosos. Se cambia entre safetensors, ckpt, GGUF o, más recientemente, MLX, sin saber siempre qué formato es compatible actualmente y por qué no. Incluso los pequeños cambios en la configuración pueden hacer que se bloquee toda la ejecución del entrenamiento, y si quieres utilizar un modelo en un entorno diferente, a menudo te enfrentas a la siguiente ronda de conversiones.

Es precisamente en esta situación cuando uno empieza a comprender el verdadero significado del término "adaptación de bajo rango": No sólo porque se están adaptando modelos de bajo rango, sino porque uno mismo se vuelve humilde ante la complejidad de estos sistemas. Y, sin embargo, es precisamente este método la clave para adaptar grandes modelos lingüísticos de forma eficiente, ahorrando recursos y adaptándolos a un dominio específico.

Ahora Claris entra en escena con FileMaker 2025, un entorno que antes era conocido por cosas completamente distintas: soluciones de bases de datos, procesos empresariales, flujos de trabajo claramente estructurados. 

Y de repente aparece allí un paso de guión que se llama simplemente "Afinar modelo". Un comando que menciona la palabra "LoRA" al mismo tiempo que "FileMaker". Cualquiera que haya pasado los últimos años asistiendo a cursos de formación clásicos de LoRA inevitablemente se frotará los ojos. Porque la pregunta es obvia: ¿puede esto realmente funcionar - y si es así, a qué nivel?

Esta curiosidad está justificada. Al fin y al cabo, mientras que antes la gente se pasaba horas trasteando en la línea de comandos, FileMaker ofrece ahora la posibilidad de entrenarse "con un clic del ratón", directamente en un entorno que ya contiene los datos con los que se quiere entrenar. Un cambio de paradigma: del laboratorio experimental a la caja de herramientas productiva. Pero, por supuesto, el escepticismo sigue siendo apropiado. Porque por encantadora que sea esta idea, la verdadera pregunta es: ¿qué está ocurriendo técnicamente? ¿Se trata de un auténtico ajuste LoRA o de una versión abstracta y simplificada? ¿Y en qué se diferencian cualitativamente los resultados de la formación realizada con métodos tradicionales?

Antes de juzgarlo, merece la pena echar la vista atrás: al principio en sí, a la idea en que se basa LoRA, que nos ha permitido replantearnos grandes modelos en un espacio reducido.

Al nuevo Funciones AI de FileMaker 2025 Markus Schall ha publicado un artículo aparte en su página web. El siguiente artículo trata ahora sobre el ajuste fino de LoRA de un modelo de lenguaje directamente desde FileMaker. En el próximo artículo, describiremos cómo se puede entrenar un modelo de lenguaje en la práctica con FileMaker.

¿Qué es la LoRA? - Breve repaso del principio

LoRA son las siglas de Low-Rank Adaptation (adaptación de bajo rango), y este nombre describe el método con precisión. Se trata de una técnica en la que una gran red neuronal no se reentrena por completo, sino que sólo se adaptan determinadas matrices de pesos de forma comprimida. En concreto, algunas capas del modelo se dotan de pequeñas matrices adicionales que forman los llamados "adaptadores". Estos adaptadores aprenden nuevos patrones específicos de la tarea durante el proceso de ajuste fino sin cambiar los pesos originales del modelo. Esto tiene dos grandes ventajas: en primer lugar, ahorra memoria y potencia de cálculo y, en segundo lugar, el modelo básico permanece inalterado, por lo que se pueden crear, combinar y, si es necesario, eliminar varios ajustes finos sobre la misma base.

Esta idea nació originalmente de la necesidad. El ajuste completo era demasiado caro. Reentrenar un modelo con varios miles de millones de parámetros requiere no sólo un hardware potente, sino también enormes cantidades de datos y un control preciso. LoRA, en cambio, ideó una solución pragmática: en lugar de cambiar toda la red, sólo se optimizan unos cuantos pesos adicionales, normalmente entre el uno y el dos por ciento del volumen total. De repente, el ajuste fino se convirtió en una opción realista para usuarios particulares, empresas de nueva creación y grupos de investigación.

Básicamente, LoRA simboliza el cambio que ha experimentado el desarrollo de la IA. Mientras que antes el entrenamiento se hacía partiendo de cero, hoy hablamos de adaptación: adaptar los conocimientos existentes en lugar de forzar nuevos conocimientos. Es el equivalente en la máquina de lo que en el aprendizaje humano podríamos llamar experiencia: el modelo aprende a orientarse en un nuevo entorno sin perder su identidad.

Otra ventaja de LoRA es su modularidad. Una vez entrenado, un adaptador LoRA puede cargarse o descargarse como un módulo adicional. Así se crean variantes especializadas de un modelo básico: por ejemplo, un modelo de chat especializado en textos médicos, uno para lenguaje jurídico o uno que refleje el estilo de una determinada empresa. En la práctica, el proceso se ha consolidado tanto para los modelos de texto como para los de imagen, por lo que los principios subyacentes siguen siendo los mismos: pequeñas adaptaciones diferenciadas en lugar de grandes intervenciones globales.

Pero aunque el proceso en sí sea elegante, su aplicación sigue siendo un reto. El entorno de entrenamiento, la preparación de los datos y los hiperparámetros adecuados determinan el éxito o el fracaso. Aquí es precisamente donde se hace evidente la diferencia crucial entre las cadenas de herramientas clásicas de código abierto como Axolotl, LLaMA-Factory o kohya_ss y la nueva solución integrada en FileMaker 2025. Ambas utilizan la misma idea matemática, pero la incrustan en contextos técnicos y conceptuales completamente diferentes.
Y aquí es precisamente donde entra nuestra comparación: en intentar comprender dos mundos que hablan el mismo idioma pero piensan de forma muy diferente.

La forma clásica - Formación LoRA con kohya_ss y PEFT

Quienes prefieran la forma clásica de Formaciones LoRA El ritual es familiar para cualquiera que haya utilizado alguna vez un adaptador LoRA: primero la instalación de Python, luego la versión correcta de PyTorch, después los controladores NVIDIA adecuados... y al final siempre queda la misma incertidumbre sobre si todo armoniza entre sí. Kohya_SS, diseñado originalmente para entrenar modelos visuales, se ha convertido en los últimos años en una especie de solución universal para cualquiera que desee crear adaptadores LoRA, ya sea para imágenes o texto. Bajo el capó, el sistema utiliza los mismos principios que la biblioteca PEFT de Hugging Face, sólo que en una interfaz gráfica más cómoda.

El proceso sigue siempre el mismo patrón. Se empieza con un modelo básico, como un derivado de Llama o Mistral. A continuación, se preparan los datos de entrenamiento, normalmente en forma de archivos JSONL con estructuras de roles ("usuario" y "asistente"), pero a veces también como simples listas de preguntas-respuestas. A continuación hay que definir los parámetros: Tasa de aprendizaje, rango LoRA, capa adaptadora, tamaño del lote, optimizador, directorios de destino. Sólo esta fase separa a los aficionados de los pacientes, ya que cada uno de estos ajustes puede marcar la diferencia entre el éxito y el fracaso.

Lo que sigue es la fase de entrenamiento propiamente dicha, a menudo acompañada de un sentimiento entre esperanza y escepticismo. Mientras la GPU calcula durante horas, observas la curva de pérdidas con curiosidad y, sin embargo, nunca sabes a ciencia cierta si el resultado al final es realmente mejor que antes. A veces el entrenamiento termina con un mensaje de error, a veces con un archivo que ya no se puede cargar más tarde. Y si tiene éxito, le espera el siguiente reto: convertir el modelo terminado en un formato que pueda utilizarse en otros entornos. Un adaptador que está disponible como safetensores a menudo tiene que convertirse a GGUF o MLX, dependiendo de la plataforma de destino. En ocasiones, los tensores se pierden en el proceso y, si tienes mala suerte, vuelves al principio.

A pesar de todos estos obstáculos, la ruta clásica tiene cierto atractivo. Es honesta, transparente y puedes sentir lo que ocurre en el fondo a cada paso. Puedes ver los pesos, puedes cambiar los parámetros individualmente, tienes un control total. Y ese fue precisamente el encanto de este mundo durante mucho tiempo: recompensaba a los que se abrían camino a través de la jungla. Cualquiera que entrenara con éxito su propio modelo LoRA por primera vez se sentía como si hubiera escalado una cumbre.

Pero en algún momento surge la pregunta de si este esfuerzo sigue siendo adecuado. Al fin y al cabo, el objetivo sigue siendo el mismo: crear un modelo que se adapte a una lengua, un estilo o un ámbito de actividad concretos. El método es sólido, pero a menudo resulta difícil llegar a él. Por eso crece el deseo de un entorno en el que todo esto deje de ser un proyecto de fin de semana para convertirse en una herramienta de trabajo.

FileMaker 2025 - Ajuste fino de LoRA mediante guión

Con FileMaker 2025 Claris se ha atrevido ahora a dar precisamente este paso, y puede decirse que lo ha hecho con cierta elegancia. Por primera vez, una empresa clásicaBase de datos un comando que recibe el nombre de "Modelo de ajuste fino". Detrás de esta sencilla expresión se esconde una idea que llama la atención: la formación LoRA, antes un tema para especialistas, se integra directamente en el flujo de trabajo cotidiano.

Técnicamente, esto se hace a través del llamado Modelo AI Servidorque se ejecuta localmente en los sistemas Apple Silicon y se basa en el marco MLX de Apple. Este sistema se encarga de todos los pasos del cálculo, desde la carga del modelo base hasta la creación de la capa adaptadora. El usuario sólo tiene que especificar qué datos se van a entrenar y puede hacerlo de dos formas: a través de un FileMakerCuadro - por ejemplo, una colección de consultas de clientes, diálogos de soporte o fragmentos de texto - o a través de un archivo JSONL externo en formato de chat. Esto elimina la necesidad de una laboriosa preparación de datos fuera del sistema; se trabaja directamente con los registros de datos que ya están disponibles en la empresa.

La selección de parámetros también se ha racionalizado considerablemente. En lugar de veinte parámetros, sólo hay unos pocos, pero decisivos: max_steps, learning_rate, batch_size y lora_layers. Los valores restantes están predefinidos en el motor. Esta reducción no es una desventaja, sino la expresión de una clara filosofía de diseño: FileMaker no pretende ser una plataforma de investigación, sino una herramienta que ofrezca resultados reproducibles y estables.

El ajuste se ejecuta como cualquier otro comando de guión: El usuario llama a "Fine-Tune Model", pasa el nombre del modelo y la ubicación de almacenamiento, y FileMaker pasa el resto al AI Model Server. El entrenamiento tiene lugar de forma totalmente local, sin la nube, sin una API de terceros, sin riesgo de protección de datos. El resultado es un nuevo modelo con el prefijo fm-mlx- que se puede utilizar directamente en el entorno FileMaker para funciones de generación de texto, clasificación o diálogo.

Proceso de formación de LoRA mucho más sencillo con FileMaker

Cualquiera que haya tenido la experiencia clásica de LoRA probablemente se sentirá sorprendido por la primera ejecución: no hay terminal, ni avalancha de registros, ni mensajes de error crípticos. En su lugar, hay una clara barra de progreso y un resultado reproducible. Por supuesto, se puede criticar el hecho de que se tiene menos control - sin acceso a optimizadores exóticos, sin experimentos con QLoRA o congelación de capas - pero ese es precisamente el punto. Claris no está dirigido a investigadores, sino a usuarios que quieren trabajar de forma productiva con sus propios datos.

Esto cambia fundamentalmente el carácter de la formación LoRA. Un proceso experimental se convierte en un proceso planificable. En el futuro, las empresas podrán adaptar sus propios modelos lingüísticos internos sin tener que explotar ellas mismas la infraestructura. Los datos siguen siendo internos, los procesos están documentados y los resultados pueden versionarse y automatizarse como cualquier otro componente de FileMaker.

Por supuesto, aquí también se permite el escepticismo. El AI Model Server sigue ligado a Apple Silicon, y sigue faltando un acceso en profundidad a los parámetros. Pero el camino está despejado: donde antes se tardaba semanas en configurarlo, ahora sólo se tarda unos minutos. Y donde antes era laborioso cambiar entre formatos de almacenamiento, ahora basta con un comando de script.

Con ello, FileMaker ha conseguido algo poco frecuente en el panorama de la IA: no ha intentado hacer "más", sino "menos", y de una forma que pone de relieve la verdadera fuerza de la plataforma. Estructura en lugar de caos, integración en lugar de fragmentación.

Comparación práctica - MLX-LoRA frente a PEFT-LoRA

Si ponemos los dos enfoques uno al lado del otro, nos daremos cuenta a primera vista de que en esencia hacen lo mismo: adaptar un modelo lingüístico existente con la ayuda de pesos adaptadores adicionales. Pero la forma de conseguirlo no podría ser más diferente. Mientras que el mundo del código abierto ve LoRA como un sistema modular flexible, Claris lo ve como parte de un flujo de trabajo claramente definido. Algunos experimentan con cada componente, otros los integran a la perfección en un entorno cerrado.

El enfoque clásico PEFT (Parameter-Efficient Fine-Tuning) - por ejemplo a través de Axolotl, LLaMA-Factory o kohya_ss - permite controlar cada detalle del proceso de entrenamiento. Se puede definir específicamente qué capas se adaptan, qué ritmos de aprendizaje se utilizan, cómo se manejan los gradientes, cómo se guarda la memoria o se varía el tamaño de los lotes. Esta libertad es poderosa, pero requiere experiencia y sensibilidad. Incluso pequeños errores en la configuración pueden dar lugar a modelos inutilizables o a ejecuciones no convergentes. La ventaja reside en su naturaleza científica: si quiere entender por qué un modelo se comporta como lo hace, éste es el mejor punto de partida.

FileMaker 2025 es bastante diferente, donde LoRA no se entiende como una herramienta de investigación, sino como una función operativa: parte de un sistema que procesa información en lugar de investigarla. El nuevo comando de script abstrae muchos detalles técnicos sin distorsionar la idea básica. El ajuste fino se ejecuta en segundo plano en el AI Model Server, controlado por unos pocos parámetros sencillos. Todo lo que antes estaba en archivos YAML o comandos de shell se vierte en un guión FileMaker familiar. El resultado es menos espectacular, pero más estable: un proceso reproducible que puede documentarse, automatizarse e integrarse en la lógica de la empresa.

La diferencia podría describirse así: La forma clásica es como arrancar un motor, donde cada junta es visible y cada ajuste es manual. FileMaker, en cambio, ha tapado el motor y le ha puesto un botón de arranque al lado. El resultado puede ser menos emocionante para los aficionados, pero arranca de forma fiable.

En cuanto a los resultados, la calidad en ambos casos depende de los mismos factores: la calidad de los datos, la adecuación del ritmo de aprendizaje y el modelo de base. Las diferencias surgen más de la naturaleza del entorno que del método en sí. Por su propia naturaleza, FileMaker trabaja con conjuntos de datos cerrados, normalmente corpus específicos de aplicaciones o empresas. Esto significa conjuntos de datos más limpios pero más pequeños. En el mundo del código abierto, en cambio, se suelen utilizar conjuntos de datos grandes y mixtos, a menudo procedentes de una amplia variedad de fuentes. Esto puede dar lugar a resultados más sólidos, por un lado, pero más incoherentes, por otro.

El resultado es claro: FileMaker ofrece un modelo estable y utilizable en menos tiempo, mientras que la formación basada en PEFT ofrece más potencial, pero también más incertidumbre. Así pues, si lo que se desea es un proceso reproducible que pueda integrarse en la vida laboral cotidiana, FileMaker es una solución inesperadamente madura. Por otro lado, quienes quieran experimentar, comprender e ir más allá de los límites de los parámetros estándar están mejor en el mundo del código abierto.

Diferencias de calidad: lo que de verdad cuenta

A pesar de todas las discusiones sobre marcos, formatos y comandos, hay algo que no debe pasarse por alto: La calidad del ajuste fino del LoRA no viene determinada por la herramienta, sino por lo que se le da. Un conjunto de datos bien estructurado que contenga preguntas claramente formuladas y respuestas realistas tiene un mayor impacto en el resultado final que cualquier tasa de aprendizaje o tamaño del lote. Esto es cierto tanto para la formación con FileMaker como para las ejecuciones basadas en PEFT.

No obstante, merece la pena echar un vistazo a las diferencias que influyen indirectamente en la calidad. En el entorno clásico, se suele trabajar con grandes cantidades de datos, lo que conlleva una cierta varianza. Los modelos que se entrenan con tales conjuntos de datos tienden a responder de forma más amplia pero menos precisa. A menudo desarrollan una cierta "amplitud de lenguaje", que es impresionante en aplicaciones genéricas, pero que puede conducir a la arbitrariedad en entornos especializados. FileMaker, por el contrario, promueve lo contrario: aquí, los datos se seleccionan y curan de forma específica, a menudo directamente desde una tabla que refleja el contexto empresarial real. El resultado es una focalización natural: el modelo no lo aprende todo, sino lo que es relevante.

El proceso encapsulado garantiza una mayor estabilidad

Otro punto es la reproducibilidad. El entrenamiento clásico de LoRA suele ejecutarse en entornos que cambian rápidamente debido a actualizaciones de versiones, controladores de GPU o cambios en las bibliotecas. Un entrenamiento que funciona hoy puede fallar mañana. FileMaker rompe con esta incertidumbre encapsulando todo el proceso. El AI Model Server utiliza un tiempo de ejecución MLX claramente definido que no depende del usuario ni de la conexión a Internet. Aunque esto conlleva una menor flexibilidad, también se traduce en una mayor estabilidad, y esto es precisamente lo que resulta crucial en escenarios productivos.

La evaluación de los resultados también difiere. En el mundo del código abierto, la calidad suele medirse mediante métricas cuantitativas: perplejidad, precisión, puntuación BLEU. FileMaker, en cambio, funciona de forma más silenciosa: el resultado es evidente en la vida cotidiana cuando un sistema responde de repente con más precisión a preguntas internas o cuando un texto generado automáticamente suena más natural. Se trata de diferencias cualitativas, basadas en la experiencia: la forma en que un modelo reacciona ante términos familiares, cómo capta la tonalidad específica de una empresa o cómo "alucina" menos con términos técnicos.

Por último, no hay que subestimar el factor tiempo. La formación PEFT con Axolotl o kohya_ss puede llevar fácilmente muchas horas o incluso días, incluyendo la preparación y el posprocesamiento. En cambio, la formación con FileMaker puede iniciarse en cuestión de minutos y llevarse a cabo en paralelo con otras tareas. Esta velocidad cambia la forma de trabajar con los sistemas de IA: Un proyecto técnico se convierte en un proceso cotidiano.

El resultado muestra que la diferencia cualitativa radica menos en el rendimiento del modelo que en la disponibilidad y facilidad de uso. Los LoRA de FileMaker suelen ser más pequeños, más centrados y más estables, y esto es precisamente lo que los hace valiosos para los procesos de trabajo reales. Los LoRA de PEFT, en cambio, pueden ser más profundos, más adaptables y, en el límite, más potentes cuando se entrenan adecuadamente. Es como comparar una máquina de precisión con un laboratorio universal: Ambas tienen su utilidad, pero sirven para fines distintos.

Y tal vez ésta sea precisamente la lección de este nuevo desarrollo: que la calidad no sólo tiene que ver con los números, sino con la fiabilidad, la claridad y la capacidad de llevar el conocimiento a un marco organizado. FileMaker 2025 demuestra que incluso en un mundo rebosante de experimentos, a veces la solución prudente e integrada produce los mejores resultados.

Pasos del guión Claris FileMaker AI

Portabilidad y sostenibilidad: entre dos mundos

Si se observa el panorama actual de formatos de modelos, casi se recuerda el de los primeros años de la informática, cuando cada sistema hablaba su propio idioma. Lo que antes eran formatos de disco ahora son formatos de tensor: GGUF, safetensors, ckpt, MLX. Cada framework, cada motor parece mantener su propia lógica. Y del mismo modo que antes se necesitaban cables adaptadores para pasar de Windows a Mac, hoy se necesitan scripts de conversión: a veces de MLX a GGUF, a veces al revés.

FileMaker 2025 hace aquí deliberadamente una puntualización. El nuevo AI Model Server utiliza MLX exclusivamente como backend, el framework que Apple desarrolló para su propio Silicon. MLX es aún joven, pero conceptualmente sólido: permite el entrenamiento, la inferencia y el ajuste fino de LoRA en un formato de memoria consistente, optimizado para los núcleos neuronales de los M-Chips. Por tanto, la decisión de Claris de adoptar este sistema no es casual. Sigue la filosofía de crear un entorno estable y controlado que pueda funcionar de forma completamente local.

Esto tiene consecuencias para la portabilidad. Un modelo LoRA entrenado en FileMaker tiene automáticamente el prefijo fm-mlx- y puede utilizarse directamente en el tiempo de ejecución MLX. Sin embargo, si desea utilizarlo en otro entorno - por ejemplo en LM Studio, Ollama o llama.cpp - usted tiene que tomar las desviaciones a través de una conversión. Esto es técnicamente posible, pero todavía no es trivial. Aunque existen herramientas iniciales que pueden transferir modelos MLX a GGUF, todavía no existe un puente estandarizado. La razón no radica tanto en las matemáticas como en la organización: MLX está centrado en Apple, mientras que GGUF está impulsado por la comunidad. Ambos sistemas se desarrollan rápidamente, pero de forma independiente.

En la práctica, esto significa que cualquiera que trabaje con FileMaker permanece inicialmente dentro de un ecosistema cerrado pero estable. Para muchos casos de uso, esto no es una desventaja, sino todo lo contrario. La certeza de que un modelo se forma, almacena y utiliza en el mismo entorno tiene ventajas que van mucho más allá de la comodidad técnica. Concierne a cuestiones de trazabilidad, soberanía de los datos y longevidad. Mientras que los marcos de código abierto suelen vivir en ciclos de innovación cortos, FileMaker es tradicionalmente sinónimo de coherencia. Los modelos que se entrenan hoy seguirán siendo ejecutables de la misma forma dentro de dos o tres años, y ése es un valor que difícilmente puede sobrestimarse en el contexto corporativo.

No obstante, el deseo de intercambiabilidad se mantendrá. Es concebible -y casi inevitable a largo plazo- que Claris ofrezca funciones de exportación en el futuro, por ejemplo a GGUF u ONNX. Esto permitiría utilizar los modelos fuera del mundo FileMaker sin perder su núcleo. Es igualmente probable que el propio MLX crezca con más fuerza en el mundo del código abierto y que las barreras entre los entornos Apple y no Apple desaparezcan poco a poco.

Por ahora, sin embargo, FileMaker se sostiene sobre una base claramente definida: estabilidad sobre diversidad, simplicidad sobrecarga. Es una decisión que no gustará a todo el mundo, pero que tiene sentido a largo plazo. Porque en un mundo en el que todo es posible al mismo tiempo, lo que funciona de forma fiable volverá a tener peso.

Conclusión - De experimento a herramienta

Al final, lo que queda claro es que FileMaker 2025 no se ha limitado a introducir una nueva función con su comando LoRA, sino que ha enviado una señal. Una señal de que la formación en IA ya no es un privilegio de especialistas, sino que puede formar parte de los procesos empresariales normales. La integración de LoRA en un sistema que ha sido sinónimo de estabilidad, trazabilidad y facilidad de uso durante décadas marca un punto de inflexión, no en la investigación, sino en la práctica.

La formación clásica de LoRA, ya sea con kohya_ss o con PEFT, seguirá teniendo su lugar. Seguirá siendo el reino de los desarrolladores, los investigadores y los aficionados, de los que quieren entender en detalle cómo se comportan los modelos, de los que quieren examinar cada matriz de pesos individualmente. Esta apertura tiene su valor, es la base del progreso. Pero su precio es el esfuerzo, la incertidumbre y una cierta fragilidad.
FileMaker, en cambio, elige el otro camino: reduce la complejidad a lo esencial y transforma un proceso complicado en una rutina repetible. El ajuste fino se convierte en un comando de guión, el modelo pasa a formar parte de una base de datos, la IA se convierte en una herramienta entre muchas otras. Esto no hace que la tecnología sea más pequeña, sino más tangible. Pierde su carácter experimental y gana idoneidad para el uso cotidiano.

La diferencia cualitativa no está en la potencia de cálculo ni en la gama de parámetros, sino en el enfoque. Mientras muchas plataformas de IA inundan al usuario de opciones, Claris toma un camino más tranquilo: el de la integración. De todos modos, todo ocurre donde se encuentran los datos. No se trata de un truco tecnológico, sino de la expresión de una filosofía: los procesos deben ir juntos, no uno al lado del otro.

Quizá éste sea el verdadero progreso: que la búsqueda constante de nuevas posibilidades se haya convertido por fin en una herramienta que se puede entender, manejar y controlar. FileMaker 2025 pone a LoRA donde debe estar: en manos de quienes trabajan con datos, no sólo en los laboratorios de quienes los investigan.

Y así se cierra el círculo: de la caótica ventana del terminal a los primeros ajustes finos experimentales al comando script que hace lo mismo, sólo que limpio, estructurado y comprensible. Un cambio silencioso pero significativo. Porque a veces el mundo no cambia por lo que se reinventa, sino por lo que finalmente simplemente funciona.

En el próximo artículo, describiremos cómo se puede entrenar en la práctica un modelo lingüístico utilizando un guión de ejemplo con FileMaker.


Preguntas más frecuentes

  1. ¿Qué es exactamente LoRA y para qué se utiliza en el entrenamiento de modelos lingüísticos?
    LoRA son las siglas de Low-Rank Adaptation (adaptación de bajo rango). Se trata de un proceso en el que sólo se ajusta una pequeña proporción de los parámetros del modelo para adaptar un modelo lingüístico de gran tamaño a tareas o estilos de escritura específicos. En lugar de cambiar miles de millones de pesos, se entrenan pequeñas matrices adicionales ("adaptadores"). Esto ahorra memoria, tiempo y potencia de cálculo. El modelo básico permanece inalterado, lo que hace que los modelos LoRA sean especialmente flexibles y ahorren recursos.
  2. ¿Cuál es la diferencia entre la formación FileMaker LoRA y la formación clásica PEFT con Axolotl o kohya_ss?
    En esencia, no tanto: ambos utilizan la misma idea matemática. La diferencia radica en el entorno. El entrenamiento PEFT se lleva a cabo en marcos abiertos con un gran número de palancas, normalmente a través de bibliotecas Python. FileMaker, en cambio, integra el proceso en su AI Model Server. El entrenamiento se ejecuta localmente a través de MLX en sistemas Apple Silicon y se ejecuta a través de Guión controlada. Aquí se hace hincapié en la estabilidad y la integración más que en la libertad de investigación.
  3. ¿Qué es el Servidor de Modelos AI en FileMaker 2025?
    El AI Model Server es un componente local que proporciona, entrena y ejecuta modelos de texto, completamente en hardware Apple Silicon. Constituye la base técnica de todas las funciones de IA en FileMaker, incluida la generación, incrustación y ajuste de textos. Esto permite a una empresa utilizar modelos de IA sin transferir datos a nubes externas.
  4. ¿Cómo funciona realmente la formación LoRA en FileMaker 2025?
    El usuario llama al nuevo comando Ajustar modelo del guión. La entrada es una tabla de la base de datos FileMaker (por ejemplo, con preguntas y respuestas) o un archivo JSONL externo con una estructura de chat. El entrenamiento se inicia localmente a través del AI Model Server. Una vez completado, se genera un nuevo modelo con el prefijo fm-mlx-..., que puede utilizarse inmediatamente en scripts o diseños.
  5. ¿Qué parámetros se pueden configurar para la formación en FileMaker?
    FileMaker permite algunos parámetros específicos pero decisivos:
    - pasos_máx - Número de pasos de formación
    - tasa_de_aprendizaje - Tasa de aprendizaje
    - tamaño_lote - Tamaño de los lotes de entrenamiento
    - lora_layers - Número de capas del adaptador
    De este modo, la formación sigue siendo clara sin riesgo de configuraciones incorrectas.
  6. ¿Cuáles son las ventajas de la formación a través de FileMaker en comparación con las herramientas tradicionales?
    La mayor ventaja reside en la integración. Se trabaja directamente con los datos que ya están disponibles en el sistema y se ahorra en configuración, variables de entorno, instalaciones de paquetes o configuraciones de GPU. Además, todo sigue siendo local y reproducible. Este es un argumento decisivo para las empresas: protección de datos, trazabilidad y mantenimiento sencillo.
  7. ¿Es FileMaker-LoRA de menor calidad que un PEFT-LoRA?
    No fundamentalmente. El método subyacente es idéntico. Las diferencias surgen por el tamaño del conjunto de datos, la selección de parámetros y la evaluación. FileMaker se basa en valores predeterminados estables y conjuntos de datos estructurados, mientras que las configuraciones de PEFT ofrecen más libertad experimental. En muchos casos, FileMaker incluso consigue resultados más coherentes porque hay menos variables propensas a errores.
  8. ¿Se puede utilizar FileMaker también para entrenar modelos base más grandes, por ejemplo, Llama 3 o Mistral?
    Sí, siempre que el modelo base esté en formato MLX y sea compatible con el AI Model Server. FileMaker está optimizado para modelos basados en texto que se ejecutan localmente en chips Apple Silicon. Sin embargo, los modelos muy grandes están limitados por la capacidad de la RAM y la GPU: normalmente son adecuados modelos de hasta 8.000 - 14.000 millones de parámetros.
  9. ¿Puedo utilizar un modelo entrenado con FileMaker fuera de FileMaker?
    Actualmente sólo con restricciones. El modelo está disponible en formato MLX y está pensado directamente para el AI Model Server. Existen herramientas de conversión iniciales para exportar a otros formatos (por ejemplo, GGUF, ONNX), pero aún son experimentales. Claris podría dar soporte oficial a esta función en el futuro.
  10. ¿Cuáles son los requisitos de hardware para la formación en FileMaker?
    Se necesita un Mac con un chip Apple Silicon (M1, M2, M3 o más reciente). El entrenamiento utiliza el motor neuronal y las unidades GPU del chip. Los Mac Intel no son compatibles. Para conjuntos de datos más grandes, recomendamos al menos 16 GB de RAM, preferiblemente 32 GB o más.
  11. ¿Qué ocurre con la protección de datos y la seguridad en la formación de FileMaker?
    La formación tiene lugar de forma totalmente local. No se transfieren datos a terceros ni se utiliza ninguna API en la nube. Para las empresas que trabajan con datos confidenciales o personales, esto supone una ventaja decisiva frente a los servicios externos de IA.
  12. ¿Puedo ejecutar varios modelos en FileMaker al mismo tiempo?
    El Servidor de Modelos AI admite actualmente un modelo a la vez. Sin embargo, puede crear cualquier número de modelos y cargarlos o descargarlos según sea necesario. Esta limitación favorece la estabilidad y previsibilidad del sistema.
  13. ¿Cuál es la diferencia de esfuerzo de formación entre FileMaker y LoRA clásico?
    Es considerable. Mientras que una configuración clásica de PEFT suele requerir horas o días de preparación -instalación, dependencias, pruebas de funcionamiento-, FileMaker está listo para funcionar en sólo unos minutos. El propio proceso de formación también es más rápido porque MLX funciona de forma muy eficiente en Apple Silicon. Esto ahorra tiempo y nervios, aunque se pierda algo de control.
  14. ¿Qué tipos de datos de texto son los más adecuados para la formación?
    Lo ideal son los datos estructurados de tipo diálogo: Consultas de clientes, discusiones de soporte, bases de datos de conocimiento interno, preguntas frecuentes o textos técnicos. Es importante que los datos estén claramente formulados y tengan un patrón reconocible. LoRA no aprende "contenido", sino estructuras lingüísticas y contextuales: la calidad vence a la cantidad.
  15. ¿Cómo se puede evaluar la calidad de un modelo LoRA de FileMaker?
    No con métricas abstractas, sino en el uso práctico. Se comprueba si el modelo responde de forma coherente a las preguntas internas, si utiliza correctamente los términos técnicos y si la tonalidad se corresponde con el estilo deseado. FileMaker permite realizar pruebas de comparación sencillas, por ejemplo mediante guiones que envían preguntas a distintos modelos y guardan las respuestas.
  16. ¿Es posible eliminar o sobrescribir un modelo LoRA de FileMaker?
    Sí, los modelos ajustados pueden gestionarse, eliminarse o sustituirse en la Admin Console del AI Model Server. Como los modelos de base no se modifican, el riesgo es mínimo. Se puede volver a entrenar en cualquier momento sin perder el punto de partida.
  17. ¿Cómo se compara FileMaker con el ajuste en la nube con OpenAI o Anthropic?
    FileMaker ofrece control local, mientras que los servicios en la nube suelen entrenarse en el lado del servidor y devuelven los resultados a través de la API. La desventaja de la nube: costes elevados, protección de datos limitada y sin acceso directo al modelo. FileMaker consigue lo contrario: plena soberanía de los datos, sin dependencia de terceros, pero limitado al hardware de Apple.
  18. ¿Hasta qué punto es estable MLX como plataforma para la formación LoRA?
    MLX es aún joven, pero técnicamente maduro. Fue desarrollado por Apple específicamente para redes neuronales en chips M y ofrece un rendimiento asombrosamente alto con un bajo consumo de energía. En conjunción con FileMaker, parece una base sólida para aplicaciones locales de IA, aunque actualmente hay menos apoyo de la comunidad que con PyTorch.
  19. ¿Admitirá FileMaker también la exportación a formatos abiertos en el futuro?
    Es probable. Claris ha subrayado varias veces en los últimos años que desea apoyar los estándares abiertos a largo plazo. Una exportación a GGUF u ONNX sería el siguiente paso lógico para integrar la formación de FileMaker en entornos externos (por ejemplo, LM Studio u Ollama). Esto aún no se ha anunciado oficialmente, pero es técnicamente factible.
  20. ¿Merece la pena el cambio a FileMaker-LoRA para los usuarios experimentados de PEFT?
    Depende del objetivo. Si desea realizar una investigación en profundidad, comparar métricas o probar sus propias arquitecturas, es mejor que se quede con Axolotl o LLaMA-Factory. Quienes necesiten una formación estable y repetible en un entorno controlado -para asistentes internos, lenguaje especializado o automatización de procesos, por ejemplo- encontrarán en FileMaker una solución extraordinariamente elegante.

Deja un comentario

Comparta esta página:

Software ERP tan flexible como su empresa.
Estaremos encantados de asesorarle.

Software ERP personalizable para Mac, Windows e iOS.

Usted se encuentra aquí: FileMaker 2025: Ajuste fino de LoRA mediante script y MLX