Группа :: Науки/Компьютерные науки
Пакет: llama.cpp
Главная Изменения Спек Патчи Sources Загрузить Gear Bugs and FR Repocop
Текущая версия: 20230728-alt1
Время сборки: 29 июля 2023, 22:04 ( 39.0 недели назад )
Размер архива: 1205.07 Kb
Домашняя страница: https://github.com/ggerganov/llama.cpp
Лицензия: MIT
О пакете: Inference of LLaMA model in pure C/C++
Описание:
Список всех майнтейнеров, принимавших участие
в данной и/или предыдущих сборках пакета: Список rpm-пакетов, предоставляемый данным srpm-пакетом:
ACL:
Время сборки: 29 июля 2023, 22:04 ( 39.0 недели назад )
Размер архива: 1205.07 Kb
Домашняя страница: https://github.com/ggerganov/llama.cpp
Лицензия: MIT
О пакете: Inference of LLaMA model in pure C/C++
Описание:
Plain C/C++ implementation (of inference of LLaMA model) without
dependencies. AVX, AVX2 and AVX512 support for x86 architectures.
Mixed F16/F32 precision. 4-bit, 5-bit and 8-bit integer quantization
support. Runs on the CPU. Supported models:
LLaMA
LLaMA 2
Alpaca
GPT4All
Chinese LLaMA / Alpaca
Vigogne (French)
Vicuna
Koala
OpenBuddy (Multilingual)
Pygmalion 7B / Metharme 7B
WizardLM
Baichuan-7B and its derivations (such as baichuan-7b-sft)
NOTE 1: You will need to:
pip3 install -r /usr/share/llama.cpp/requirements.txt
for data format conversion scripts to work.
NOTE 2:
MODELS ARE NOT PROVIDED. You need to download them from original
sites and place them into "./models" directory.
For example, LLaMA downloaded via public torrent link is 220 GB.
Overall this is all raw and experimental, no warranty, no support.
Текущий майнтейнер: Vitaly Chikunov dependencies. AVX, AVX2 and AVX512 support for x86 architectures.
Mixed F16/F32 precision. 4-bit, 5-bit and 8-bit integer quantization
support. Runs on the CPU. Supported models:
LLaMA
LLaMA 2
Alpaca
GPT4All
Chinese LLaMA / Alpaca
Vigogne (French)
Vicuna
Koala
OpenBuddy (Multilingual)
Pygmalion 7B / Metharme 7B
WizardLM
Baichuan-7B and its derivations (such as baichuan-7b-sft)
NOTE 1: You will need to:
pip3 install -r /usr/share/llama.cpp/requirements.txt
for data format conversion scripts to work.
NOTE 2:
MODELS ARE NOT PROVIDED. You need to download them from original
sites and place them into "./models" directory.
For example, LLaMA downloaded via public torrent link is 220 GB.
Overall this is all raw and experimental, no warranty, no support.
Список всех майнтейнеров, принимавших участие
в данной и/или предыдущих сборках пакета: Список rpm-пакетов, предоставляемый данным srpm-пакетом: