A sigla GPT em ChatGPT significa "Generative Pre-trained Transformer".
Vamos analisar cada parte:
Generative (Gerador): Refere-se à capacidade do modelo de gerar novo conteúdo (texto, neste caso) que seja coerente e contextualmente relevante. Não se limita a repetir informação que já viu; consegue criar novas frases e ideias.
Pre-trained (Pré-treinado): Isto significa que o modelo foi treinado com uma quantidade gigantesca de dados de texto da internet antes de ser disponibilizado. Este pré-treino permite-lhe aprender padrões de linguagem, gramática, factos e até estilos de escrita.
Transformer (Transformador): Este é o nome da arquitetura de rede neural em que o modelo se baseia. A arquitetura Transformer, desenvolvida pela Google em 2017, é particularmente eficaz a compreender o contexto e as relações entre as palavras numa frase, mesmo que estejam distantes umas das outras. É o que torna o modelo tão bom a manter o fio da meada numa conversa.
Portanto, em resumo, GPT é um modelo de linguagem que gera texto, foi pré-treinado com uma quantidade imensa de dados e usa uma arquitetura Transformer para o fazer de forma "inteligente".