Calculul necesar pentru a antrena un model lingvistic la un anumit nivel de performanță s-a înjumătățit aproximativ la fiecare opt luni
Cercetătorii de la Epoch, MIT FutureTech și Universitatea Northeastern au realizat un studiu care își propune să facă lumină asupra modului în care AI-ul a avansat atât de mult într-o perioadă atât de scurtă.
Studiul are în vedere două segmente majore – inovațiile algoritmice și creșterea puterii de calcul pusă la dispoziția modelelor lingvistice.
Cercetătorii au descoperit că, datorită îmbunătățirilor algoritmice, calculul necesar pentru a antrena un model lingvistic la un anumit nivel de performanță s-a înjumătățit aproximativ la fiecare opt luni.
Asta, susțin experții, arată că scalarea puterii de calcul, în care se investesc sume foarte mari de bani, este doar parte a puzzle-ului. Pentru o imagine completă a progresului, trebuie luat în considerare și progresul algoritmic.
Cu toate astea, progresul algoritmic a rămas constant în timp, în vreme ce puterea de calcul a devenit mai importantă pentru îmbunătățirea performanței modelelor lingvistice.
Cercetătorii recunosc, însă, că studiul nu a putut să analizeze decât anumite părți al ecuației, în principal din cauza accesului limitat la date de calitate. (TechXplore)