L'obiettivo principale di llama.cpp è quello di consentire l'uso di LLM (ad esempio quelli di huggingface) con una configurazione minima (anche senza GPU) e prestazioni all'avanguardia su un'ampia varietà di hardware, sia a livello locale che in cloud.
Guida llama.cpp - Esecuzione di LLM in locale, su qualsiasi hardware, partendo da zero
Add new comment