- Como usar quantização e LoRA para treinar modelos gigantes em uma única GPU
1.0 Introdução: A Democratização do Ajuste Fino de LLMs
Por anos, a capacidade de customizar Modelos de Linguagem Grandes (LLMs) foi o domínio exclusivo de empresas de tecnologia em hiperescala. Este não é mais o caso. O principal obstáculo — o imenso custo computacional e o hardware especializado necessários para treinar um modelo a partir do zero — foi contornado. O custo para tal empreitada pode ser proibitivo, treinar um modelo pode custar 1 milhão de dólares — um valor que, em muitos casos, pode ser até considerado conservador —, além de exigir meses para a coleta da massa de dados necessária.