En un nuevo proyecto de Google Colab, utilizando el lenguaje de Python, inicia la primer celda de código instalando el paquete de openAI con el siguiente comando
!pip install openai
Después debemos instalar las librerías de openai utilizando el siguiente código:
from openai import OpenAI
En el siguiente video, tienes un pequeño tutorial de prueba para crear tu API Key, recuerda que previo debes crear un usuario en OpenAI.
Importante: La API Key solo te aparecerá una vez y es única, después que le des clic en "Done" no tendrás forma de volver a verla, por lo que es importante que la guardes en un lugar seguro.
Posteriormente deberás cargar la API Key de OpenAI creando una variable de la siguiente forma:
openai = OpenAI(api_key='Ingresa aquí la API Key de OpenAI')
Los Tokens son secuencias comunes de caracteres que se encuentran en un conjunto de texto. Los modelos aprenden a comprender las relaciones estadísticas entre estos tokens y destacan a la hora de producir el siguiente token en una secuencia de tokens.
Es decir, el modelo de OpenAI etiquetará cada token e internamente generará una matriz con la que hará operaciones matemáticas para procesar la salida para la que fue creado.
Es importante conocer el uso de tokens, ya que a partir de estos es como funciona el modelo de negocio de OpenAI, por cada token de salida se cobran los créditos disponibles en tu cuenta.
Puedes jugar con la herramienta Tokenizer de OpenAI para comprender más sobre el uso de los Tokens y la extensión de las salidas de los modelos que uses en OpenAI. Enlace a la herramienta.
response = openai.completions.create(
model=" ",
prompt=" ",
temperature=,
max_tokens=,
top_p=,
frequency_penalty=,
presence_penalty=
)
model = Aquí se escribe el modelo de IA que quieres usar de OpenAI, para este ejercicio vamos a utilizar el modelo
gpt-3.5-turbo-instruct
pero puedes consultar más modelos aquí.
Los modelos GPT-3.5 Turbo pueden comprender y generar lenguaje natural o código y se han optimizado para el chat utilizando la API Chat Completions, pero también funcionan bien para tareas ajenas al chat.
prompt = Se refiere al texto inicial o la instrucción que se le proporciona al modelo para guiar su respuesta. Se necesita proporcionar instrucciones claras, contexto y formato esperado, puedes guiar al modelo hacia la respuesta que necesitas.
prompt = (
"Clasifica el siguiente texto como positivo, negativo o neutral: "
"\n\nTexto: \"La película fue increíble y muy entretenida.\""
"\n\nClasificación:"
)
temperature = Controla la aleatoriedad de las respuestas.
Un valor bajo (cercano a 0) hará que el modelo sea más determinista, mientras que un valor más alto (cercano a 1) permitirá respuestas más creativas y variadas.
max_tokens = Define el número máximo de tokens (palabras o fragmentos de palabras) que el modelo puede generar en una respuesta. Esto ayuda a limitar la longitud de las respuestas.
top_p = Este parámetro permite al modelo seleccionar de un conjunto de palabras que tienen una probabilidad acumulada que suma hasta un valor determinado (p). Así, se controla la diversidad de las respuestas.
Su valor puede ir de 0.0 a 2.0. Un valor más alto incrementa la probabilidad de que el modelo use palabras diferentes.
frequency_penalty = Este parámetro penaliza la aparición de palabras que ya han sido utilizadas en la respuesta. Se basa en la frecuencia de las palabras en la salida generada.
Su valor puede ir de 0.0 a 2.0. Un valor más alto incrementa la probabilidad de que el modelo use palabras diferentes.
presence_penalty = Este parámetro penaliza la aparición de palabras que ya han estado presentes en cualquier parte del texto, sin importar cuántas veces aparezcan. Se centra más en la presencia general de palabras en la respuesta.
Su valor puede ir de 0.0 a 2.0. Un valor más alto incrementa la probabilidad de que el modelo use palabras diferentes.
Para ingresar a la respuesta, se puede utilizar métodos en diccionarios, con la siguiente sentencia.
response.choices[0]
Para que el modelo funcione, deberás tener créditos en tu cuenta, el mínimo de saldo que se puede ingresar es de 5 USD, que son aproximadamente 100 pesos mexicanos (se ingresa el saldo como si ingresaras una recarga a tu celular pero requieres hacerlo con una tarjeta bancaria desde el portal de OpenAI) y por cada vez que corras el modelo con salida de 60 tokens, se van a gastar 0.01 USD y se descuentan de inmediato del saldo que hayas ingresado.
Puedes conocer más en el video que se mencionó anteriormente.
Crea tu propio código de clasificador de textos tomando en cuenta los siguientes parámetros a evaluar:
Crea una forma más clara de definir el prompt.
Crea una forma más clara para impimir la respuesta.
Busca un texto corto, no es necesario que sea un tweet, pero haz que solo contenga hasta 60 tokens de ingreso y 30 de salida.
Sé creativo, puedes experimentar con otro tipo de salida o proyecto, lo importante es que uses la estructura del modelo.