Desde que OpenAI hizo que el procesamiento de texto esté disponible con GPT-3, se ha hecho la pregunta: ¿es esta la última y única interfaz que necesitará para crear una interfaz de IA conversacional o chatbot?

¿Por qué seguir molestando con otros marcos y entornos?

Sí, hay casos en los que GPT-3 se puede utilizar en modo autónomo. Por ejemplo; un chatbot de humor a color, un chatbot divertido y sarcástico, un amigo como un bot de charla, conversaciones generales de dominio abierto, etc.

Sin embargo, actualmente, GPT-3 tiene una capacidad mínima para soportar proyectos de ajuste fino.

GPT-3 está trabajando en la construcción de un punto final de ajuste fino de autoservicio que hará que esta función sea accesible para todos los usuarios, pero no hay cronogramas concretos disponibles.

Por ahora, en la mayoría de las implementaciones de producción y empresariales, GPT-3 desempeñará un papel de soporte… pero echemos un vistazo a qué extensión se puede entrenar y adaptar la API de OpenAI con información personalizada.

Hay alguna medida de personalización que es posible a través de la API, pero existen limitaciones. Estas son algunas de las funciones disponibles para usar sus propios datos.

Estas opciones pueden servir como una idea de lo que le espera a GPT-3.


Tabla de contenidos

Crear clasificación

Dentro del código de Python, puedes ver la consulta:

query="It seems like I first need to go slower and make sure :(",

Con la consulta, se proporcionan ejemplos etiquetados:
examples=[
["You can drive cross the intersection.", "Green"],
["Go slower to check the intersection", "Orange"],
["You must stop at the intersection..", "Red"]
],

Dada la consulta y el conjunto de ejemplos etiquetados, el modelo predecirá la etiqueta más probable para la consulta. Esto puede servir para clasificar texto o etiquetar oraciones.

Se dan ejemplos de clasificación. En la verdadera forma de GPT-3, solo unas pocas líneas de datos de «entrenamiento». La entrada del usuario está etiquetada o clasificada según los datos.

Lo interesante es que los datos de ejemplo se incluyen en la consulta. Inicialmente pensé que se habría adoptado el mismo enfoque que IBM Watson. Donde envía los datos de entrenamiento y luego hace referencia a ellos desde la consulta con un ID.


Crear respuestas a preguntas

Responde la pregunta especificada utilizando los documentos y ejemplos proporcionados.

La API primero busca documentos o archivos cargados para encontrar el contexto relevante. El contexto relevante se combina con los ejemplos y la pregunta proporcionados, para crear la solicitud de finalización.

La pregunta con los documentos de ejemplo. En este caso, los documentos se utilizan para responder a la pregunta.

Una segunda consulta basada en la misma entrada.

Se plantea otra pregunta y la respuesta se recupera de los ejemplos proporcionados.


Crear búsqueda

El punto final de búsqueda calcula las puntuaciones de similitud entre la consulta proporcionada y los documentos. Los documentos se pueden pasar directamente a la API.

chatbot GPT-3

Se enumeran tres continentes y una ciudad. Se devuelve el continente al que pertenece la ciudad.


Conclusión

Hay elementos de GPT-3 que son alucinantes, las tareas relacionadas con el texto son muy útiles; resumen, simplificación, tematización, extracción de palabras clave, etc.

Hablar con la API del chatbot es surrealista. El NLG y la conciencia contextual son asombrosos. Es solo una vez que comienza a pensar en la creación de una solución empresarial específica de dominio, y el escalado y la abstracción, donde comienza el desafío.

Por Cobus Greyling

Rasa Hero. NLP / NLU, Chatbots, Voz, UI / UX conversacional, Diseñador CX, Desarrollador, Interfaces de usuario ubicuas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *