DOLAR 34,5629 0.14%
EURO 36,1693 -0.22%
ALTIN 2.957,39-0,14
BITCOIN 34004344.88102%
İstanbul
13°

AÇIK

06:23

SABAHA KALAN SÜRE

Yandex, GPU Kaynaklarında %20’ye Kadar Tasarruf Sağlayan LLM Eğitim Aracını Açık Kaynak Olarak Kullanıma Sundu
  • Haberler34
  • Teknoloji
  • Yandex, GPU Kaynaklarında %20’ye Kadar Tasarruf Sağlayan LLM Eğitim Aracını Açık Kaynak Olarak Kullanıma Sundu

Yandex, GPU Kaynaklarında %20’ye Kadar Tasarruf Sağlayan LLM Eğitim Aracını Açık Kaynak Olarak Kullanıma Sundu

ABONE OL
11 Haziran 2024 15:03
Yandex, GPU Kaynaklarında %20’ye Kadar Tasarruf Sağlayan LLM Eğitim Aracını Açık Kaynak Olarak Kullanıma Sundu
0

BEĞENDİM

ABONE OL

Global teknoloji şirketi Yandex, büyük lisan modellerinin (Large Language Model-LLM) eğitimi için yeni ve açık kaynaklı bir yol olan YaFSDP’yi tanıttı. YaFSDP şu anda GPU bağlantısını geliştirmek ve LLM eğitiminde bellek kullanımını azaltmak için halka açık en tesirli formülü simgeliyor. Metot, mimariye ve parametre sayısına bağlı olarak FSDP’ye kıyasla %26’ya varan hızlanma sunuyor. YaFSDP kullanımıyla LLM’lerin eğitim müddetinin azaltılması, GPU kaynaklarında %20’ye varan tasarruf sağlama potansiyeline sahip oluyor.

Küresel yapay zeka topluluğunun gelişimine manalı bir katkı sunma hedefiyle Yandex, YaFSDP’yi dünya çapındaki LLM geliştiricilerinin ve yapay zeka meraklılarının kullanımına açtı.

Yandex’te kıdemli geliştirici olarak vazife yapan ve YaFSDP’nin gerisindeki takımın kesimi olan Mikhail Khruschev, şunları söyledi: “Şu anda YaFSDP’nin çok taraflılığını genişletmek için çeşitli model mimarileri ve parametre boyutları üzerinde etkin olarak deneyler yapıyoruz. LLM eğitimindeki gelişmelerimizi global ML topluluğuyla paylaşmaktan, dünya genelindeki araştırmacılar ve geliştiriciler için erişilebilirliğin ve verimliliğin artmasına katkıda bulunmaktan heyecan duyuyoruz.”

YaFSDP’nin Türkiye’deki Lisan Modeli Geliştirme Projelerine Katkıları 

Türkiye’de yer alan çeşitli teknoloji ve finans kuruluşları, Türkçe lisan modelleri geliştirerek bu alanda dünya çapında kıymetli projelere imza atıyor. Türkiye’de geliştirilen bu büyük lisan modelleri, Yandex’in sunduğu YaFSDP tekniği ile kıymetli avantajlar elde edebilir. YaFSDP’nin sunduğu GPU tasarrufları ve eğitim hızlandırmaları, bu projelerin daha verimli ve maliyet aktif bir halde gerçekleştirilmesine katkıda bulunabilir. Bilhassa, lisan modeli eğitimi sırasında GPU kaynaklarında %20’ye varan tasarruf sağlanması ve %26’ya kadar hızlanma elde edilmesi, bu projelerin hem ekonomik hem de operasyonel açıdan daha sürdürülebilir olmasını sağlayabilir.

Neden YaFSDP tercih edilmeli

LLM’lerin eğitimi vakit alıcı ve ağır kaynak gerektiren bir süreç oluyor. Kendi LLM’lerini geliştirmek isteyen makine tahsili mühendisleri ve şirketler, bu modellerin eğitimi için değerli ölçüde vakit ve GPU kaynağı, hasebiyle para harcamak zorunda kalıyor. Model ne kadar büyükse, eğitimi için gereken vakit ve masraf da o kadar artıyor.

İlginizi Çekebilir;  Fotoğraflara saklanan zararlı yazılımlar

Yandex YaFSDP, GPU bağlantısındaki verimsizliği ortadan kaldırarak GPU etkileşimlerini kesintisiz hale getiriyor ve eğitimin sadece gerektiği kadar süreç belleği kullanmasını sağlıyor.

YaFSDP, öğrenme suratını ve performansını optimize ederek dünya çapındaki yapay zeka geliştiricilerinin modellerini eğitirken daha az bilgi süreç gücü ve GPU kaynağı kullanmalarına yardımcı oluyor. Örneğin, 70 milyar parametreli bir modeli içeren ön eğitim senaryosunda, YaFSDP kullanmak yaklaşık 150 GPU kaynağına denk tasarruf sağlama potansiyeline sahip bulunuyor. Bu da sanal GPU sağlayıcısına yahut platformuna bağlı olarak ayda kabaca 500 bin ila 1,5 milyon dolar tasarruf anlamına geliyor.

YaFSDP eğitim verimliliği

FSDP’nin geliştirilmiş bir versiyonu olan YaFSDP, ön eğitim, hizalama ve ince ayar üzere LLM eğitiminin irtibat yüklü evrelerinde FSDP sistemine kıyasla daha yeterli performans gösteriyor. YaFSDP’nin Llama 2 ve Llama 3 üzerinde gösterdiği kesin hızlanma, Llama 2 70B ve Llama 3 70B üzerinde sırasıyla %21 ve %26’ya ulaşarak eğitim suratında kıymetli gelişmeler olduğunu ortaya koyuyor.

Mikhail Khruschev, “YaFSDP, 13 ila 70 milyar parametre ortasında değişen modellerde etkileyici sonuçlar gösterdi ve bilhassa 30 ila 70 milyar aralığında güçlü bir performans sergiledi. YaFSDP, şu an LLaMA mimarisine dayalı yaygın olarak kullanılan açık kaynaklı modeller ortasında en uygun olanıdır” diyor.

YaFSDP, Yandex’in sunduğu birinci açık kaynaklı araç değil. Şirket daha evvel ML topluluğu ortasında tanınan hale gelen öteki araçlar da paylaşmıştı:

  • CatBoost, karar ağaçlarında gradyan artırma için yüksek performanslı kütüphane.
  • YTsaurus, dağıtık depolama ve sürece için büyük data platformu.
  • AQLM, Yandex Araştırma, HSE Üniversitesi, Skoltech, IST Avusturya ve NeuralMagic tarafından ortaklaşa geliştirilen büyük lisan modellerinin çok sıkıştırılması için en gelişmiş niceleme algoritması.
  • Petals, Yandex Research, HSE University, University of Washington, Hugging Face, ENS Paris-Saclay ve Yandex School of Veri Analysis işbirliğiyle geliştirilen, LLM’lerin eğitim ve ince ayar sürecini kolaylaştırmak için tasarlanmış kütüphane.
İlginizi Çekebilir;  Renault ve Dacia, mayıs ayına özel olarak yayınladığı birbirinden özel kampanyaları ile dikkat çekmeye devam ediyor

Kaynak: (BYZHA) Beyaz Haber Ajansı

En az 10 karakter gerekli


HIZLI YORUM YAP
300x250r
300x250r

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.