Introdução

O básico de LangChain para você entender.

É um framework para use code, low-code e nocode

Modulos do LangChain

Model I/O - OpenAI

modelos de conversa como o GPT e o embedding

Retrieval - era chamado de banco de dados (Aplicações internas e Externas para empresa e clientes)

Local de busca da sua verdade que é a sua própria base de conhecimento, cultura da sua empresa, informações sobre o seu produto para que ele responda de forma específica.

É o coração do langchain.

Notion, PDF, Site serão consumidas pelo flowise para basear a busca.

De início usar ferramentas próprias de vetores como o pinecone e o ZEP

Chains - sequência de busca de informação

Agents -

Memory - armazenamento de cache de seção de chat/consulta para o modelo entender o contexto

Callbacks -

O que são Vetores de Embedings.

Antigamente se usava o full text search para encontrar palavras-chave, mas ele busca o mesmo contexto e não tem capacidade de adaptação do contexto.

O Vector pega o significado e entende o texto, podendo responder outras perguntas que não usem os mesmos parâmetros. Ele usa aproximação do contexto.

A ideia é ter uma curadoria para ser importado dados objetivamente para facilitar o processo. Evitar importar informação desnecessária.

Vector Database

É o banco de dados para o vetor e precisa ser extremamente rápido

Viés

dados uniformes

abrangente para cobrir cenários diversos

informações relevantes

somente o necessário

a inteligência se baseia nos dados que ela tem

desafio trazer dados brutos e organizá-los antes de fazer o upload

Defina Casos de Uso

perguntas simples? complexas?

limpar dados excessivamente

ser preciso

remover duplicados

Projetar Fluxo de Informação com Diagrama

Criar exemplos de conversas

Atualizado