Pular para o conteúdo principal

LLM Local Personalizado: Ajuste Fino de LLM com Llama-Factory no Jetson

Introdução

🚀Faça ajuste fino de LLM com Llama-Factory no Jetson! Agora você pode personalizar um LLM local privado para atender às suas necessidades.

Llama-Factory fornece uma ferramenta de ajuste fino de modelos de linguagem grande extremamente conveniente, que suporta modelos de linguagem grandes comuns, conjuntos de dados e métodos de ajuste fino. Com essa plataforma, podemos facilmente personalizar modelos de linguagem grandes privados.

Neste wiki, vamos aprender como implementar o Llama-Factory no Nvidia Jetson e usar o Llama-Factory para treinar um modelo de linguagem grande que suporte perguntas e respostas em chinês.

Pré-requisitos

  • Dispositivo Jetson com mais de 16 GB de memória.
  • Monitor, mouse, teclado e rede. (não obrigatório)
nota

Já testamos a viabilidade deste wiki no reComputer Orin NX 16GB e no Kit de Desenvolvimento AGX Orin 64GB.

Primeiros Passos

Conexão de Hardware

  1. Conecte o cabo Ethernet ao reComputer (com Jetson).
  2. Conecte o mouse, o teclado e o monitor ao reComputer.
  3. Ligue o reComputer.

Instalar Jetson-Examples

nota

O jetson-examples da Seeed Studio oferece uma implantação perfeita, com um único comando, para executar modelos de visão computacional e IA Generativa na plataforma NVIDIA Jetson.

Para instalar o pacote, abra o terminal no Jetson e execute:

pip3 install jetson-examples
sudo reboot

Instalar e Executar Llama-Factory no Jetson

Implemente o Llama-Factory com o jetson-examples em uma única linha:

reComputer run llama-factory

Em seguida, podemos abrir um navegador web e acessar o endereço para abrir a WebUI:

# http://<jetson-ip>:7860
http://127.0.0.1:7860

Iniciar o Treinamento

Aqui, usamos o conjunto de dados alpaca_zh para fazer o ajuste fino do modelo Phi-1.5, permitindo que ele tenha capacidades de conversação em chinês. Portanto, na interface web, configuramos apenas o Model name de treinamento e o Dataset, mantendo os outros parâmetros de treinamento como padrão.

Por fim, clique no botão start para iniciar o treinamento.

nota

O processo de treinamento levará aproximadamente 18 horas.

Após concluir o ajuste fino, você pode encontrar o modelo ajustado no diretório de salvamento.

Testando o Modelo com Ajuste Fino

Por fim, podemos usar o Llama-Factory com o modelo ajustado para testar se ele de fato adquiriu capacidades de conversação em chinês. Os passos específicos são os seguintes.

Passo 1. Carregue o modelo ajustado pela Llama-Factory WebUI.

Passo 2. Digite um prompt em chinês na caixa de texto Input, clique no botão Submit e verifique o resultado de saída do modelo de linguagem grande na caixa de texto Chatbot.

Pelos resultados do teste, podemos ver que o modelo ajustado já tem a capacidade de conversar com humanos em chinês. Se você quiser que seu modelo tenha capacidades mais avançadas, tente usar um conjunto de dados de ajuste fino mais diverso para treinar seu modelo!

Demonstração

Referências

Suporte Técnico & Discussão de Produtos

Obrigado por escolher nossos produtos! Estamos aqui para fornecer diferentes tipos de suporte para garantir que sua experiência com nossos produtos seja a mais tranquila possível. Oferecemos vários canais de comunicação para atender a diferentes preferências e necessidades.

Loading Comments...