|
|
3 년 전 | |
|---|---|---|
| .gitignore | 3 년 전 | |
| DATA_LICENSE | 3 년 전 | |
| LICENSE | 3 년 전 | |
| README.md | 3 년 전 | |
| alpaca_data.json | 3 년 전 | |
| conversion.py | 3 년 전 | |
| finetune.py | 3 년 전 | |
| generate.py | 3 년 전 | |
| lengths.ipynb | 3 년 전 | |
| loss.ipynb | 3 년 전 |
This repository contains code for reproducing the Stanford Alpaca results. Users will need to be ready to fork transformers.
Install dependencies (install zphang's transformers fork)
pip install -q datasets accelerate loralib sentencepiece
pip install -q git+https://github.com/zphang/transformers@llama_push
pip install -q git+https://github.com/huggingface/peft.git
See generate.py. This file reads the decapoda-research/llama-7b-hf model from the Huggingface model hub and the LoRA weights from tloen/alpaca-lora-7b, and runs inference on a specified input. Users should treat this as example code for the use of the model, and modify it as needed.
Under construction.
13b, 30b, 65b