DeepSeek și Universitatea Tsinghua revoluționează Inteligența Artificială prin îmbunătățirea capacităților de raționament ale modelelor lingvistice
Compania chineză DeepSeek, în colaborare cu Universitatea Tsinghua, a dezvoltat o metodă inovatoare care îmbunătățește semnificativ capacitățile de raționament ale modelelor lingvistice de mari dimensiuni (LLM), permițându-le să ofere răspunsuri mai precise și rapide la întrebările utilizatorilor.

DeepSeek, un startup chinez în domeniul inteligenței artificiale, a colaborat cu cercetători de la Universitatea Tsinghua pentru a introduce o tehnică avansată destinată îmbunătățirii performanței modelelor lingvistice de mari dimensiuni, informează Euronews.
Această metodă combină două abordări: Generative Reward Modeling (GRM) și Self-Principled Critique Tuning (SPCT).
- Generative Reward Modeling (GRM): Această tehnică permite modelelor AI să genereze răspunsuri care sunt evaluate și recompensate pe baza acurateței și relevanței lor, ghidând astfel modelul către rezultate care corespund preferințelor umane.
- Self-Principled Critique Tuning (SPCT): Această metodă implică autoevaluarea și ajustarea răspunsurilor de către model, permițându-i să își îmbunătățească continuu performanța printr-un proces iterativ de auto-corectare.
Prin integrarea acestor două tehnici, modelele lingvistice pot procesa și înțelege întrebările complexe într-un mod mai eficient, rezultând în răspunsuri mai exacte și relevante pentru utilizatori.
Impactul asupra industriei AI:
Această inovație are potențialul de a transforma modul în care modelele lingvistice sunt antrenate și utilizate, facilitând dezvoltarea de aplicații AI mai eficiente și accesibile. De asemenea, ar putea reduce costurile asociate cu dezvoltarea și implementarea modelelor AI, făcând tehnologia mai accesibilă pentru diverse industrii.
Sursa: Euronews