Cerebras Systems a lansat un instrument destinat dezvoltatorilor de AI care le permite să acceseze cipurile mari ale startup-ului pentru a rula aplicații, oferind o opțiune mult mai ieftină decât procesoarele standard din industrie de la Nvidia, notează Reuters.
Cerebras provoacă Nvidia
Accesul la unitățile de procesare grafică (GPU-uri) Nvidia — adesea prin intermediul unui furnizor de servicii de calcul în cloud — pentru antrenarea și desfășurarea unor modele mari de inteligență artificială utilizate pentru aplicații precum ChatGPT de la OpenAI poate fi dificil de obținut și costisitor. Acest proces este cunoscut sub numele de inferență.
Oferim performanțe care nu pot fi atinse de un GPU. O facem cu cea mai mare precizie și o oferim la cel mai mic preț, a declarat Andrew Feldman, CEO al Cerebras, într-un interviu pentru Reuters.
Se preconizează că partea de inferență a pieței AI va crește rapid și va fi atractivă – în cele din urmă va valora zeci de miliarde de dolari dacă consumatorii și întreprinderile vor adopta instrumentele AI.
Compania cu sediul în Sunnyvale, California, intenționează să ofere mai multe tipuri de produse de inferență prin intermediul unei chei pentru dezvoltatori și al cloud-ului său.
De asemenea, compania își va vinde sistemele AI clienților care preferă să își opereze propriile centre de date.
Cipurile Cerebras – fiecare de dimensiunea unei farfurii și denumite Wafer Scale Engines – evită una dintre problemele legate de procesarea datelor AI: datele procesate de modelele mari care alimentează aplicațiile AI nu încap de obicei pe un singur cip și pot necesita sute sau mii de cipuri înșiruite.
Aceasta înseamnă că cipurile Cerebras pot obține performanțe mai rapide, a declarat Feldman.
Urmărește România Liberă pe X, Facebook și Google News!