Încă din anii 50, o pleiadă de oameni de știință, matematicieni și filosofi a fost interesată de conceptul de inteligență artificială. Una dintre aceștia a fost britanicul Alan Turing, care a ridicat, în lucrarea sa Computing Machinery and Intelligence, problema construirii unor mașini inteligente și a testării inteligenței acestora bazându-se pe ideea că atât timp cât oamenii folosesc informațiile disponibile, precum și rațiunea pentru a rezolva probleme și a lua decizii, de ce nu ar putea și mașinile să facă același lucru? Turing a propus un test care ar putea determina dacă un computer a dobândit sensibilitate, test care a devenit ulterior cunoscut sub numele de Testul Turing.
În 1956, John McCarthy (Dartmouth College), Marvin L. Minsky (MIT), Nathaniel Rochester (IBM) și Claude Shannon (Bell Laboratories) au organizat Proiectul de cercetare de vară Dartmouth privind inteligența artificială, în cadrul căreia au fost explorate subiecte precum rezolvarea problemelor (problems solving), învățarea și procesarea limbajului, pregătindu-se astfel terenul pentru viitoarele progrese în domeniu. A fost prima utilizare a termenului „inteligență artificială".
În 1957, Frank Rosenblatt, dezvoltă așa numitul Perceptron, una din primele rețele neuronale artificiale.
ELIZA a fost creat de Joseph Weizenbaum, în 1966. ca prim chatbot care simula conversația umană,
Perioada 1970-1980 este cunoscută ca Era Sistemelor Expert.
În 1997 are loc meciul istoric de șah dintre Deep Blue, un supercomputer IBM, și campionul mondial de șah Garry Kasparov. Victoria lui Deep Blue a marcat o etapă importantă în dezvoltarea inteligenței artificiale, demonstrând că o mașină poate depăși un om într-un joc complex care necesită gândire strategică, evaluare și luare de decizii.
În același an, Tom Mitchell, informatician la Carnegie Mellon University, definește învățarea automată ca fiind „o disciplină științifică care explorează construcția și studiul algoritmilor care pot învăța din date”.
În 2012, provocarea ImageNet Large Scale Visual Recognition a demonstrat puterea mecanismului deep learning. Echipa lui Geoffrey Hinton, folosind rețele neuronale convoluționale (CNN), a îmbunătățit semnificativ precizia algoritmului de recunoaștere de obiecte, ceea ce a condus la o intensificare a cercetării în domeniul inteligentei artificiale.
Alpha Go, dezvoltat de DeepMind, a realizat o performanță extraordinară în 2016, învingându-l pe campionul mondial la Go, jucătorul Lee Sedol. Această etapă a marcat triumful inteligenței artificiale într-un joc complex cu un număr enorm de mutări posibile, care necesită intuiție și gândire strategică.
2014 - Ian Goodfellow a introdus conceptul de GAN-uri (Generative Adversarial Networks - GANs), care a revoluționat domeniul modelării generative.
2017 - Au fost introduse așa numitele modele transformatoare (Transformer models) care procesează secvențe precum textul în limbaj natural. Modelele transformatoare captează contextul prin înțelegerea interacțiunii cuvintelor dintr-o propoziție. Arhitectura transformatorului a condus la crearea LLM-urilor (Large Language Model), cum ar fi GPT (Generative Pre-trained Transformer), construit pentru prima dată de OpenAI în 2018.
2022 - OpenAI lansează ChatGPT.
Generarea de idei de cercetare: prin utilizarea instrumentelor AI se pot realiza analize pe seturi mari de date pentru a se identifica tendințe, lacune și subiecte emergente într-o anumită arie de cercetare, dar și pentru a construi modele de dezvoltare, ceea ce reprezintă un suport solid pentru identificarea unor perspective inovatoare în procesul de cercetare.
Identificarea informațiilor relevante pentru cercetare: instrumentele AI utilizează tehnica NLP (Natural Language Processing) și algoritmi ML (Machine Learning) pentru a identifica rapid, prin analiza de conținut și a citatelor, surse de informare primare și secundare pertinente și de înaltă calitate, oferind asistență în efectuarea de revizuiri sistematice ale literaturii de specialitate și meta-analize.
Extragere de date pertinente: instrumentele AI pot extrage date (Data Scraping) din Internet, din platformele web, colectând automat cantități imense de informații relevante pentru cercetare.
Generarea titlurilor și a rezumatelor: intrumentele AI pot sprijini cercetătorul în procesul de scriere academică prin generarea de titluri concise, de rezumate ale unor texte de dimensiuni mari.
Redactarea lucrărilor de cercetare asistată de AI: instrumentele AI pot asista cercetătorul în redactarea și organizarea unor capitole importante din lucrarea de cercetare, precum cele care acoperă literatura de specialitate studiată, metodologiile de cercetare, discuțiile, prin furnizarea de sugestii relevante adaptate stilului de scriere, contribuind astfel la accelerarea și eficientizarea procesului de scriere.
Analiza datelor: instrumentele AI permit un nivel complex de analiză a datelor prin identificarea modelelor din seturi complexe de date și generarea de informații predictive, dar și automatizarea unor sarcini repetitive, cum ar fi curățarea datelor.
Managementul referințelor / citărilor: instrumentele AI permit organizarea automată a referințelor, generarea automată de citări și bibliografii, cu aplicarea corespunzătoare a stilului de citare agreat.
Instrumente de inteligență artificială generativă - CHATGPT, Perplexity, Copilot
Instrumente de inteligență artificială pentru cercetare - Scite, Elicit, Litmaps, Inciteful, Research Rabbit, Scholarcy
Instrumente de inteligență artificială pentru scriere academică - Quillbot AI , Grammarly, Jenni AI, Paperpal, Sudowrite, Wordtune
Instrumente de inteligență artificială pentru creare clipuri video - Synthesia, VEED, Vidyo.ai
Instrumente de inteligență artificială pentru generare imagini DALL-E (OpenAI), Firefly (Photoshop), Midjourney