Cum să scrii un referat cu Inteligența Artificială (AI)
DeepSeek, o companie de tehnologie din China, a câștigat atenția globală la început de 2025 pentru dezvoltarea unui model de limbaj mare (LLM), DeepSeek V3, care a fost antrenat cu mult mai puține resurse decât modelele dezvoltate de companii mari precum Meta și OpenAI. Potrivit lui Jim Fan, cercetător principal la Nvidia, DeepSeek este considerată „cel mai mare cal de bătaie” din domeniu. DeepSeek V3, cu 671 miliarde de parametri, a fost antrenat în doar două luni, la un cost de aproximativ 5,58 milioane USD, folosind doar 2,78 milioane de ore GPU. Aceste realizări sunt remarcabile, având în vedere sancțiunile impuse Chinei de către SUA, care au restricționat accesul la cipuri avansate. Chiar și așa, DeepSeek a reușit să folosească arhitecturi noi care permit un antrenament mai economic, demonstrând progresul rapid al firmelor chineze în domeniul inteligenței artificiale.
Data publicării: 02/01/2025 Autor: Iurie Tataru
Etichete: ChatGPT Google Gemini OpenAI DeepMind
De asemenea, modelul DeepSeek V3 a fost subiectul unor controverse, fiind acuzat că s-a identificat greșit ca fiind ChatGPT de la OpenAI în anumite cazuri. Cu toate acestea, aceasta nu este o problemă unică, fiind întâlnită și în alte modele de AI din cauza „halucinațiilor” din datele disponibile online. DeepSeek, fondată de Liang Wenfeng, fostă divizie a fondului de hedging High-Flyer Quant, continuă să fie un jucător important în domeniul AI-ului open-source, transmite scmp.com.
DeepSeek, un laborator chinez de inteligență artificială, a lansat recent modelul său AI, DeepSeek V3, care se remarcă prin performanțele sale excelente în diverse taskuri de procesare a textului, precum programarea și redactarea eseurilor. Cu toate acestea, modelul prezintă o problemă ciudată: se identifică pe sine ca fiind ChatGPT, platforma de chatbot a OpenAI. La întrebarea „Ce model ești?”, DeepSeek V3 răspunde că este o versiune a modelului GPT-4 al OpenAI.
ATENȚIE: Inteligența artificială are puterea de a transforma lumea în care trăim. Dacă și tu crezi în acest potențial, hai să lucrăm împreună pentru a-l materializa. Sunt deschis pentru colaborări și schimburi de idei care să te ajute să atingi noi culmi în acest domeniu.
Accesează acest link și trimite impresia ta despre acest instrument minunat. Hai să vedem împreună cum putem folosi AI-ul la capacitatea sa maximă!
Citește la fel:
Inteligența artificială în războiul din Gaza: Eficiență militară
ChatGPT-ul OpenAI: Vulnerabilitățile gigantului inteligenței artificiale
Acest comportament ar putea fi rezultatul unui antrenament pe seturi de date publice care conțin text generat de GPT-4. Dacă DeepSeek V3 a învățat din aceste texte, ar putea să fi memorat și să regurgiteze răspunsuri deja existente ale ChatGPT. Mike Cook, cercetător în domeniul AI, sugerează că aceasta ar putea fi o practică comună, dar periculoasă, de a antrena modele pe baza ieșirilor altor modele, ceea ce poate duce la „hallucinații” și răspunsuri eronate. Acesta subliniază că folosirea ieșirilor altor modele pentru a crea un model competițional poate fi o încălcare a termenilor de serviciu ai OpenAI, care interzic acest tip de utilizare.
De asemenea, Khlaaf, un expert AI de la AI Now Institute, menționează că distilarea cunoștințelor dintr-un model existent poate fi atractivă din punct de vedere al economiilor de costuri, dar acest proces poate adânci problemele deja existente ale modelului original, precum părtinirea sau greșelile. Chiar dacă DeepSeek nu a confirmat dacă a folosit datele GPT-4 pentru antrenament, este posibil ca multe dintre acestea să fi ajuns în setul de date al DeepSeek V3, ceea ce poate compromite capacitatea modelului de a se autoidentifica corect, potrivit techcrunch.com.
DeepSeek-V3 utilizează o arhitectură denumită "mixtură de experți" (MoE), care implică mai multe rețele neuronale, fiecare optimizată pentru sarcini diferite. Când modelul primește o solicitare, un component numit router trimite cererea către rețeaua neuronală cea mai potrivită. Avantajul principal al acestei arhitecturi este reducerea costurilor hardware, activând doar rețeaua neuronală necesară pentru fiecare sarcină, ceea ce presupune o utilizare mai eficientă a resurselor.
În ciuda acestor beneficii, arhitectura MoE prezintă unele provocări, deoarece unele rețele neuronale pot primi mai multe date de antrenament decât altele, ceea ce poate duce la inconsistențe în calitatea output-ului modelului. DeepSeek a dezvoltat și implementat o metodă pentru a atenua această problemă în DeepSeek-V3.
Antrenamentul modelului a avut loc pe un set de date de 14,8 trilioane de tokeni și a necesitat 2,788 milioane de ore GPU, utilizând resurse relativ limitate comparativ cu modelele mai avansate ale industriei. În plus, DeepSeek-V3 integrează optimizări precum atenția multi-cap pentru o extragere mai detaliată a informațiilor importante din texte și predicția multi-token pentru a accelera procesul de generare a textului.
În comparație cu alte trei modele open-source (DeepSeek-V2, Llama 3.1 și Qwen2.5), DeepSeek-V3 a obținut scoruri mai mari în toate cele nouă teste de referință, demonstrând o performanță superioară în sarcinile de procesare a textului și în rezolvarea problemelor de matematică și programare, transmite siliconangle.com.
Cuvinte cheie: DeepSeek-V3, inteligență artificială, model open-source, arhitectura MoE, eficiență costuri.
Ai interacționat deja cu Inteligența Artificială? Împărtășește experiența ta pe canalul nostru de Telegram!
Împărtășește experiența ta pe canalul nostru de Telegram !
Accesează acest link și trimite impresia ta despre acest instrument minunat. Hai să vedem împreună cum putem folosi AI-ul la capacitatea sa maximă!
Ești pasionat de inteligența artificială și vrei să fii la curent cu cele mai noi informații și aplicații practice? Alătură-te comunității noastre de pe Telegram!
Abonează-te la canalul nostru Tot despre AI și primește:
Actualizări constante: Nu rata nicio postare de pe blog și fii primul care află despre cele mai recente trenduri în AI.
Discuții captivante: Interacționează cu alți pasionați de AI și participă la discuții despre cum putem integra inteligența artificială în viața de zi cu zi.
Resurse exclusive: Descoperă link-uri utile, instrumente AI și recomandări personalizate.
Abonează-te aici pentru a afla toate noutățile din domeniu AI!
Te așteptăm cu drag!
Etichete: ChatGPT Google Gemini OpenAI DeepMind
Cele mai citite articole:
Inteligența artificială în războiul din Gaza: Eficiență militară
ChatGPT-ul OpenAI: Vulnerabilitățile gigantului inteligenței artificiale
ChatGPT pentru WhatsApp: Agenții AI și cum pot ajuta în afaceri
ChatGPT revoluționează experiența utilizatorilor în 2024: Noi funcții
Shipmas 2024: Noutăți mari în lumea inteligenței artificiale de la OpenAI
Ce este Inteligența Artificială? Beneficii, provocări și aplicații
Alte noutăți interesante: