|
|
há 3 anos atrás | |
|---|---|---|
| .gitignore | há 3 anos atrás | |
| DATA_LICENSE | há 3 anos atrás | |
| LICENSE | há 3 anos atrás | |
| README.md | há 3 anos atrás | |
| alpaca_data.json | há 3 anos atrás | |
| conversion.py | há 3 anos atrás | |
| finetune.py | há 3 anos atrás | |
| generate.py | há 3 anos atrás | |
| iteration.ipynb | há 3 anos atrás | |
| lengths.ipynb | há 3 anos atrás |
This repository contains code for reproducing the Stanford Alpaca results. Users will need to have LLaMA weights on hand and be ready to fork transformers.
Install dependencies
pip install -q bitsandbytes datasets accelerate loralib
pip install -q git+https://github.com/zphang/transformers@llama_push
pip install -q git+https://github.com/huggingface/peft.git\
Convert weights
python conversion.py --input_dir [LLAMA_DIR]/LLaMA --model_size 7B --output_dir ./7B
Modify hyperparams in finetune.py
MICRO_BATCH_SIZE = 12
BATCH_SIZE = 36
EPOCHS = 3
LEARNING_RATE = 2e-5
Run experiments
python finetune.py