Relativement léger avec seulement 2 milliards de paramètres, le modèle est destiné à être utilisé avec des GPU grand public pour ceux qui souhaitent l'auto-héberger. Il prend actuellement en charge 14 langues.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free