[1]
;
Ramírez Guzmán, Martha Elva
[1]
;
Rodríguez Herrera, Mauricio
[2]
;
García López, Erwin Fabián
[3]
México
México
Colombia
En los últimos años, el desarrollo de la inteligencia artificial (IA) ha avanzado significativamente con la aparición de modelos preentrenados a gran escala, como GPT, BERT y CLIP. En particular BERT es un modelo de lenguaje que aprende las relaciones entre palabras tras analizar grandes volúmenes de texto, lo que lo hace útil para muy diversas tareas de análisis textual. Ajustarlo a un nuevo dominio suele implicar largas horas de entrenamiento con tarjetas gráficas costosas. Este artículo demuestra que la técnica de Adaptación de Bajo Rango (LoRA) permite actualizar BERT por completo en un ordenador de escritorio con procesador y 16 GB de RAM, manteniendo una tasa de acierto superior al 88 % en un banco de noticias (AG News) y reduciendo el tiempo de entrenamiento a una vigésima parte frente al método tradicional. Se detalla un protocolo reproducible —incluyendo comandos, parámetros y consumo real de memoria— de modo que investigadores y profesionales puedan reutilizar BERT en tareas como clasificación de textos, detección de temas o extracción de información sin depender de hardware especializado.
En els darrers anys, el desenvolupament de la intel·ligència artificial (IA) ha avançat significativament amb l'aparició de models preentrenats a gran escala, com ara GPT, BERT i CLIP. En particular BERT és un model de llenguatge que aprèn les relacions entre paraules després d'analitzar grans volums de text, cosa que el fa útil per a diverses tasques d'anàlisi textual. Ajustar-lo a un domini nou sol implicar llargues hores d'entrenament amb targetes gràfiques costoses. Aquest article demostra que la tècnica d'Adaptació de Baix Rang (LoRA) permet actualitzar BERT completament en un ordinador d'escriptori amb processador i 16 GB de RAM, mantenint una taxa d'encert superior al 88% en un banc de notícies (AG News) i reduint el temps d'entrenament a una vintena part davant del mètode tradicional. Es detalla un protocol reproduïble —incloent ordres, paràmetres i consum real de memòria— de manera que investigadors i professionals puguin reutilitzar BERT en tasques com ara classificació de textos, detecció de temes o extracció d'informació sense dependre de hardware especialitzat.
In recent years, the development of artificial intelligence (AI) has advanced significantly with the emergence of large-scale pretrained models such as GPT, BERT, and CLIP. In particular, BERT is a language model that learns relationships between words by analyzing large volumes of text, making it useful for a wide variety of textual analysis tasks. Fine-tuning it for a new domain typically requires long hours of training with expensive graphics cards. This article demonstrates that the Low-Rank Adaptation (LoRA) technique allows BERT to be fully updated on a desktop computer with a processor and 16 GB of RAM, while maintaining an accuracy rate above 88% on a news benchmark (AG News) and reducing training time to one-twentieth of the traditional method. A reproducible protocol is detailed—including commands, parameters, and actual memory consumption—so that researchers and practitioners can reuse BERT for tasks such as text classification, topic detection, or information extraction without relying on specialized hardware.
© 2001-2026 Fundación Dialnet · Todos los derechos reservados