Skip to content
Tutoriels
AIGC
Décryptage de Pinecone AI : Débloquer le potentiel de la recherche sémantique

Décryptage de Pinecone AI : Débloquer le potentiel de la recherche sémantique

Quand il s'agit de traiter de vastes quantités de données dans les écosystèmes numériques modernes, avoir un système robuste et efficace pour le stockage et la récupération des données est primordial. C'est là que Pinecone AI entre en jeu. Avec une fonctionnalité centrale de bases de données vectorielles et des capacités d'intégration sophistiquées, Pinecone redéfinit notre façon d'interagir avec les données. Plongeons plus en profondeur dans les fonctionnalités de Pinecone et la manière dont il exploite la recherche sémantique.

Comprendre le système de base de données vectorielles de Pinecone

Contrairement aux bases de données traditionnelles, les bases de données vectorielles uniques de Pinecone offrent une approche transformante de la gestion des données. Cette fonctionnalité de base permet aux utilisateurs de télécharger leurs données provenant de différentes sources dans ces bases de données vectorielles, ce qui permet d'obtenir d'importantes capacités de recherche sémantique. C'est une amélioration significative par rapport aux recherches traditionnelles basées sur des mots-clés, offrant des résultats plus pertinents et précis.

De plus, Pinecone étend la notion de bases de données au-delà de simples référentiels de données, vers des systèmes intelligents capables de comprendre le contexte et la signification des données. Cette compréhension sémantique des données, ou comme le dit Pinecone – "Vector embeddings from Natural Language Processing models" –, est un bouleversement pour de nombreuses applications, dont les chatbots, les systèmes de recommandation, et bien d'autres.

La puissance des capacités d'intégration de Pinecone

L'efficacité de Pinecone est également amplifiée par sa compatibilité avec d'autres technologies de pointe, telles que OpenAI, Haystack et co:here. Grâce à ces intégrations, la personnalisation de vos opérations de données et la génération de résultats plus précis deviennent un jeu d'enfant. Qu'il s'agisse d'utiliser les modèles de langage d'OpenAI pour générer du texte semblable à celui d'un humain ou de tirer parti des fonctionnalités de Haystack pour une meilleure récupération d'informations, Pinecone facilite tout cela.

Décortiquons le processus d'intégration et de recherche de données dans Pinecone pour mieux comprendre.

Pinecone en action : une démonstration simplifiée

Une fois que vous avez installé le client Pinecone, vous devez l'initialiser avec votre clé API et les paramètres de l'environnement. Cette clé API est gérée dans la console de gestion minimaliste mais efficace de Pinecone. L'initialisation du client Pinecone peut ressembler à ceci :

pip install pinecone-client
import pinecone
pinecone.init(api_key="xxxxxxxx-xxxx-xxxx-xxx-xxxx", environment="us-west1-gcp")

Créer une base de données vectorielles, ou un "index" comme le nomme Pinecone, ne nécessite alors que quelques lignes de code. Par exemple, nous pouvons créer un index nommé 'pod1' et ajouter des données vectorielles à celui-ci, comme ceci :

index=pinecone.Index(index_name="pod1")
import pandas as pd
df = pd.DataFrame(
     data={
         "id": ["A", "B", "B", "C", "D", "E"],
         "vector":[
           [1.,1.,1.],
           [1.,2.,3.],
           [2.,1.,1.],
           [3.,2.,1.],
           [2.,2.,2.]]
     })
index.upsert(vectors=zip(df.id,df.vector))
index.describe_index_stats()

Avec des données dans notre base de données vectorielles, nous pouvons effectuer une recherche sémantique ou une "requête" pour récupérer les meilleures correspondances (top-k) de notre vecteur. La requête renvoie un score et les valeurs, indiquant la pertinence du résultat de recherche.

index.query(
     queries=[[1.,2.,3.]],
     top_k=3,
     include_values=True)

Cette démonstration simple illustre la facilité et la puissance de l'utilisation de Pinecone pour vos besoins en matière de données.

À mesure que nous approfondissons les offres de Pinecone, son potentiel de perturber le domaine de la gestion des données devient évident. Les puissantes bases de données vectorielles, les capacités d'intégration robustes et une console de gestion intuitive en font un outil convaincant pour tout projet intensif en données. Avec Pinecone AI, vous exploitez véritablement la puissance de la recherche sémantique, ce qui conduit à des opérations de données plus précises, pertinentes et intelligentes.

Construction des composants d'un chatbot basé sur la connaissance

Web Scraper

Notre premier composant est un web scraper. Pour construire le web scraper, nous utilisons Puppeteer, une bibliothèque Node.js qui fournit une API de haut niveau pour contrôler des navigateurs Chrome ou Chromium en mode headless.

Voici une fonction d'exemple qui récupère le contenu d'une page web en utilisant Puppeteer :

async function scrape_researchr_page(url: string, browser: Browser): Promise<string> {
    const page = await browser.newPage();
    await page.setJavaScriptEnabled(false);
    await page.goto(url);
 
    const element = await page.waitForSelector('#content > div.row > div', {
        timeout: 100
    });
 
    // ... plus de code ici ...
 
    return turndownService.turndown(html_of_element);
}

La fonction récupère le contenu HTML, puis convertit le HTML en Markdown à l'aide de la bibliothèque turndown. Cela s'explique par le fait que GPT (l'IA que nous utiliserons plus tard) comprend mieux Markdown que HTML.

Splitter de texte

Ensuite, nous divisons le texte Markdown en plusieurs morceaux à l'aide de la classe MarkdownTextSplitter du package langchain/text_splitter :

const textSplitter = new MarkdownTextSplitter({
    chunkSize: 1000,
    chunkOverlap: 20
});
const chunks = await textSplitter.splitText(markdowns.join('\n\n'));

Générateur d'incorporation

Nous générons des incorporations pour nos fragments de texte en utilisant l'API d'incorporation d'OpenAI et la classe OpenAIEmbeddings du package langchain/embeddings:

const embeddingModel = new OpenAIEmbeddings({ maxConcurrency: 5 });

Stockage des vecteurs Pinecone

Pour stocker et récupérer nos incorporations efficacement, nous utilisons Pinecone comme base de données de vecteurs:

import {PineconeClient} from "@pinecone-database/pinecone";
 
const client = new PineconeClient();
await client.init({
    apiKey: PINECONE_API_KEY,
    environment: PINECONE_ENVIRONMENT,
});
 
export const pineconeIndex = client.Index(PINECONE_INDEX);

Langchain LLM

Enfin, nous combinons un modèle de langue large (LLM) avec notre base de données de vecteurs Pinecone pour répondre aux questions basées sur le contenu dans la base de données de vecteurs:

const model = new ChatOpenAI({ temperature: 0.9, openAIApiKey: OPENAI_API_KEY, modelName: 'gpt-3.5-turbo' });
 
const chain = VectorDBQAChain.fromLLM(model, vectorStore, {
k: 5,
returnSourceDocuments: true
});

Avec ces composants, nous créons un point d'extrémité SvelteKit pour gérer les demandes des utilisateurs:

export const POST = (async ({ request }) => {
    //... code de gestion des demandes ici...
}) satisfait RequestHandler;

À travers ce tutoriel, nous constatons comment Pinecone, conjointement avec l'API d'incorporation OpenAI et langchain.js, peut alimenter un chatbot innovant basé sur les connaissances. Ce cas d'utilisation montre non seulement la polyvalence de Pinecone, mais met aussi en évidence ses applications pratiques pour alimenter des applications IA avancées.

Conclusion

À mesure que la technologie IA continue d'évoluer, il est évident que les chatbots joueront un rôle significatif dans l'amélioration de la participation des clients et l'automatisation des tâches fastidieuses. En exploitant la puissance de Pinecone, de l'API d'incorporation d'OpenAI et de Langchain.js, nous pouvons créer des chatbots basés sur les connaissances qui offrent des réponses de haute qualité, contextuellement précises aux questions des utilisateurs. Bien que la mise en œuvre puisse sembler intimidante au début, suivre ce guide étape par étape facilitera sans aucun doute le processus. Explorons les possibilités et exploitons le potentiel de l'IA pour innover dans cette ère numérique.

Questions fréquemment posées

Q: Qu'est-ce qu'une base de données de vecteurs?

R: Une base de données de vecteurs est conçue pour stocker et interroger des vecteurs de manière efficace. Elles vous permettent de rechercher des vecteurs similaires en fonction de leur similarité dans un espace à haute dimension. Pinecone est un exemple d'une base de données de vecteurs que nous utilisons dans ce tutoriel.

Q: Pourquoi devons-nous convertir HTML en Markdown lors du web scraping?

R: La conversion d'HTML en Markdown simplifie le texte, ce qui facilite la compréhension et le traitement du contenu par GPT-3. Cela réduit également le nombre de jetons utilisés, ce qui rend les appels API moins chers.

Q: Pourquoi devons-nous diviser les données textuelles en morceaux avant de les traiter?

R: La division des données textuelles en morceaux les rend plus faciles à traiter pour le modèle. Si vous avez des fichiers Markdown très structurés, un morceau peut correspondre à une sous-section. Si le Markdown provient de HTML et est moins structuré, nous nous appuyons sur une taille fixe de morceaux.

Q: Comment Pinecone aide-t-il au développement d'un chatbot basé sur les connaissances?

R: Pinecone agit comme une base de données de vecteurs, stockant et récupérant efficacement des vecteurs de haute dimension. Il facilite le stockage et la récupération des incorporations générées dans le processus de développement du chatbot.

Q: Comment langchain.js contribue-t-il à ce chatbot?

R: Langchain.js est une bibliothèque JavaScript pour les frameworks de modèles de langue large (LLM). Elle facilite le travail avec Pinecone et OpenAI et contribue à fournir des capacités de question-réponse pour notre chatbot.