add: ....

This commit is contained in:
Sergei Erjemin 2025-05-08 14:16:47 +03:00
parent 5cd7686d54
commit f7393f52f0

View File

@ -2,18 +2,18 @@
## Предпосылки
Для экспериментов в LLama.cpp мне где-то хранить GUFF-модели. Каждый раз тянуть их с
[Hugging Face](https://huggingface.co/models) -- долго, а держать все на локальном диске -- не рационально.
Поэтому я храню их на Synology внутри домашней сети. А чтобы было удобнее сделал к ним доступ по http (кстати,
Для экспериментов в LLama.cpp мне нужно где-то хранить GUFF-модели. Каждый раз тянуть их с
[Hugging Face](https://huggingface.co/models) — долго, а держать все на локальном диске — не рационально.
Поэтому я храню их на Synology, внутри домашней сети. А чтобы было удобнее, сделал к ним доступ по http (кстати,
LLama.cpp поддерживает загрузку моделей по http).
Унылый внешний вид доступа с directory listing мне надоел, и я решил сделать его более "веселеньким". Собственно,
данный репозиторий -- это реализация такой "раскраски" для доступа к файлам.
данный репозиторий это реализация такой "раскраски" для доступа к файлам.
## Развертывание.
ВАЖНО: При создании веб службы (`⋮⋮ ⟶ Web Station ⟶ Веб-служба`) нужно выбрать Apache HTTP Server 2.4 (не Nginx).
Иначе не будет работать, а настроить directory listing в Nginx внутри Synology -- это просто не реально. Кстати,
Иначе не будет работать, а настроить directory listing в Nginx внутри Synology это просто не реально. Кстати,
по умолчанию, Apache HTTP Server не установлен, нужно сходить в `Центр пакетов ⟶ Все пакеты ⟶ Apache HTTP Server 2.4 `,
установить и запустить его.