DOLAR
34,16 0%
EURO
38,11 0%
ALTIN
2.913,97 0%
BITCOIN
2.245.755,53 -0,15%

Yandex ve Ortaklarından Yeni Sıkıştırma Yöntemleri: AQLM ve PV-Tuning

Yandex, büyük dil modelleri için iki yeni sıkıştırma yöntemi geliştirdi ve verimliliği artırmayı hedefliyor.

Yayın Tarihi: 23.07.2024 13:40
Güncelleme Tarihi: 23.07.2024 13:40

Yandex ve Ortaklarından Yeni Sıkıştırma Yöntemleri: AQLM ve PV-Tuning

Yandex, Yeni Sıkıştırma Yöntemlerini Tanıttı

Yandex, IST Austria, NeuralMagic ve KAUST ile işbirliği yaparak büyük dil modelleri için iki yenilikçi sıkıştırma yöntemi geliştirdi.

AQLM ve PV-Tuning Yöntemleri

Yeni geliştirilen yöntemler olan Dil Modelleri için Eklemeli Niceleme (AQLM) ve PV-Tuning, model boyutunu 8 kata kadar küçülterek yanıt kalitesini yüzde 95 oranında korumaktadır.

Donanım Maliyetlerinde Önemli Azalma

AQLM, sıkıştırma sürecinde kullanılan geleneksel bilgi erişim yöntemlerini uygulayarak modelin doğruluğunu korumakta ve ev bilgisayarları gibi günlük cihazlarda kullanımını mümkün kılmaktadır. Bu yöntem, bellek tüketimini önemli ölçüde azaltmaktadır.

PV-Tuning, sıkıştırma işlemi sırasında ortaya çıkabilecek hataları gidermekte ve AQLM ile birleştirildiğinde, kısıtlı bilgi işlem kaynaklarında yüksek kalitede yanıtlar elde edilmesine olanak tanımaktadır.

Yöntemlerin Etkinliği ve Uygulama Alanları

Bu yöntemlerin etkinliği, LLama 2, Mistral ve Mixtral gibi popüler açık kaynaklı modellerle test edilmiştir. Araştırmalar, büyük dil modellerinin sıkıştırılmasıyla yanıt kalitesinin korunduğunu göstermektedir.

Örneğin, 13 milyar parametreye sahip LLama 2 modeli, artık sadece 1 GPU ile çalışarak donanım maliyetlerini 8 kat azaltmaktadır. Bu durum, bireysel araştırmacılar ve büyük dil modellerine ilgi duyan kullanıcılar için büyük avantajlar sunmaktadır.

Çevrimdışı Uygulamalar ve Hız Artışı

AQLM ve PV-Tuning yöntemleri, akıllı telefonlar ve akıllı hoparlörler gibi sınırlı hesaplama kaynaklarına sahip cihazlarda çevrimdışı dil çevirisi gibi yeni uygulamaları mümkün hale getirmektedir. Uzmanlar bu sayede, entegre edilmiş gelişmiş dil modelleri ile kullanıcıların yüksek kalitede metin ve görüntü oluşturma, sesli yardım gibi hizmetlerden faydalanmasını sağlayacak.

Ek olarak, bu yöntemlerle sıkıştırılan modeller 4 kat daha hızlı çalışabilmektedir.

Araştırmacılar için Erişilebilirlik

Dünya çapındaki geliştiriciler ve araştırmacılar, GitHub üzerinden AQLM ve PV-Tuning'e kolayca erişebilirler. Tanıtım sunumları, bu yeni yöntemlerin uygulanması için rehberlik sunmakta ve kullanıcıların sıkıştırılmış popüler açık kaynaklı modelleri indirmesine olanak tanımaktadır.