-
Notifications
You must be signed in to change notification settings - Fork 8
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Albert au format GGUF #10
Comments
Bonjour et merci pour votre intérêt, oui tout à fait c'est prévu, même si ce n'est pas dans les priorités. |
J'ai tenté la conversion mais j'ai un message d'erreur
je modifie la dernière ligne de config.json en |
mais quand je tente de le charger dans llama-cpp-python , j'ai ce 32000 qui refait surface :
dionc le modèle a un soucis sur la "vocab_size" ou sur sa définition dans les fichiers de config
|
si on considère ceci :
32000 + le 0, ça fait 32001, non ? |
la solution serait ggerganov/llama.cpp#3583 (comment) de supprimer la ligne dans added_token. mais c'est un peu strange, on a deux token 0 : unk et pad . je sui seulement utilisateur en énéral, je n'ai jamais buildé / converti de modèle, à quoi correspond ?
|
plus d'infos sur la méthode : https://qwen.readthedocs.io/en/latest/quantization/gguf.html |
et le GGUF et Q8_0 https://huggingface.co/spoggy/AgentPublic-albertlight/tree/main |
Merci @scenaristeur pour ce bug report. Nous essayons de reproduire ce bug |
Nous avons réussi à produire un gguf la semaine dernière, mais nous n'avons pas encore réussi à reproduire votre bug report. |
Pour info @scenaristeur, plusieurs personnes de la communauté sur HuggingFace ont produit des versions GGUF d'Albert light 7B, à notre connaissance pour l'instant : |
Bonjour,
avez-vous prévu de mettre à disposition sur https://huggingface.co/AgentPublic les différents modèles Albert au format GGUF , comme le fait TheBloke
Ceci faciliterait leur utilisation par des outils comme node-llama-cpp ou llama-cpp-python pour le développement d'applications
doc de conversion ggerganov/llama.cpp#2948
The text was updated successfully, but these errors were encountered: