|
|
před 3 roky | |
|---|---|---|
| .gitignore | před 3 roky | |
| DATA_LICENSE | před 3 roky | |
| LICENSE | před 3 roky | |
| README.md | před 3 roky | |
| alpaca_data.json | před 3 roky | |
| conversion.py | před 3 roky | |
| finetune.py | před 3 roky | |
| generate.py | před 3 roky | |
| lengths.ipynb | před 3 roky | |
| loss.ipynb | před 3 roky |
This repository contains code for reproducing the Stanford Alpaca results. Users will need to be ready to fork transformers.
Install dependencies (install zphang's transformers fork)
pip install -q datasets accelerate loralib sentencepiece
pip install -q git+https://github.com/zphang/transformers@llama_push
pip install -q git+https://github.com/huggingface/peft.git
See generate.py. This file reads the decapoda-research/llama-7b-hf model from the Huggingface model hub and the LoRA weights from tloen/alpaca-lora-7b, and runs inference on a specified input. Users should treat this as example code for the use of the model, and modify it as needed.
Under construction.