제이로그
close
프로필 배경
프로필 로고

제이로그

  • 분류 전체보기 (77)
    • 제이로그 (12)
      • 회고 (4)
      • 생각정리 (2)
      • 면접후기 (6)
    • 데이터 엔지니어링 (14)
      • 개념정리 (1)
      • Airflow (7)
      • Spark (0)
      • Kafka (3)
      • dbt (3)
    • 데이터 분석 (3)
      • Redash (2)
      • Grafana (0)
      • Superset (1)
    • 프로그래밍 (11)
      • 개발 환경 (4)
      • Python (3)
      • FastAPI (4)
    • 데이터베이스 (3)
      • PostgreSQL (3)
    • Google Cloud (2)
      • BigQuery (2)
    • 인프라 (3)
      • 리눅스 (3)
    • DevOps (5)
      • Docker (2)
      • Kubernetes (3)
    • AI (16)
      • 개념정리 (2)
      • Tools (0)
      • RAG (14)
    • 버전관리 (2)
      • Github (2)
    • 협업툴 (2)
      • Slack (1)
      • Notion (1)
    • 알고리즘 (3)
      • 개념정리 (0)
      • 백준 (0)
      • 프로그래머스 (3)
    • 블로그 (1)
  • 홈
  • 방명록
  • 태그
  • Github
  • Linkedin
LangChain Vector Store를 도구(Tool) 변환하기

LangChain Vector Store를 도구(Tool) 변환하기

해당 포스트는 인프런에서 "AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)" 강의를 듣고 정리한 내용입니다. 이번에는 벡터 스토어를 도구로 변환해서 사용해보려고 한다. 문서 가져와서 청크로 분할하기 (청킹)먼저 문서를 읽어와서 임베딩해서 벡터 스토어에 저장해서 검색하는 과정을 만들고 이러한 과정을 도구로 만들어서 사용해보려고 한다.강의에서 제공해 준 레스토랑 메뉴와 와인에 대한 메뉴와 식재료, 설명이 들어있는 문서를 가져와서 사용해보려고 한다. 먼저, 문서를 가져온다.from langchain.document_loaders import TextLoader# 메뉴판 텍스트 데이터를 로드loader = TextLoader("../../data/restaurant_menu.txt", encod..

  • format_list_bulleted AI/RAG
  • · 2025. 5. 20.
  • textsms
LangChain Runnable 객체를 도구(Tool)로 변환

LangChain Runnable 객체를 도구(Tool)로 변환

해당 포스트는 인프런에서 "AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)" 강의를 듣고 정리한 내용입니다. 이 글에서는 LangChain 의 Runnable 인터페이스에 대해서 알아보고 Runanble 객체를 만들어 도구로 변환해서 사용하는 방법에 대해서 실습하고 정리해보려고 한다. Runnable 인터페이스에 대해서 알아보기먼저 LangChain 에서 Runnable 객체가 무엇인지 먼저 알아보았다. 아래의 LangChain 문서를 살펴보니 다음과 같이 설명하고 있다. Runnable interface | 🦜️🔗 LangChainThe Runnable interface is the foundation for working with LangChain components, and it..

  • format_list_bulleted AI/RAG
  • · 2025. 5. 14.
  • textsms
LangChain ToolCalling 알아보기 (2)

LangChain ToolCalling 알아보기 (2)

해당 포스트는 인프런에서 "AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)" 강의를 듣고 정리한 내용입니다. 지난 포스트에 이어서 이번에는 LLM 에 Tool Message 를 전달해서 답변을 생성하는 과정에 대해서 공부하고 정리해보려고 한다. ToolMessage 를 LLM 에 전달해서 답변 생성하기지난 포스트에서는 도구를 사용해보고 LLM 을 통해 도구를 바인딩해서 사용해보는 과정을 하나씩 진행했었는데이번에는 하나로 연결해서 답변까지 생성해주는 과정을 진행해보려고 한다. 먼저, Tavily 검색 도구와 LLM 모델을 각각 정의해서 객체로 만들어주었다. Tavily 검색 도구 정의 (tavily_search_tool.py)import warningswarnings.filterwarnin..

  • format_list_bulleted AI/RAG
  • · 2025. 5. 10.
  • textsms
  • navigate_before
  • 1
  • navigate_next
전체 카테고리
  • 분류 전체보기 (77)
    • 제이로그 (12)
      • 회고 (4)
      • 생각정리 (2)
      • 면접후기 (6)
    • 데이터 엔지니어링 (14)
      • 개념정리 (1)
      • Airflow (7)
      • Spark (0)
      • Kafka (3)
      • dbt (3)
    • 데이터 분석 (3)
      • Redash (2)
      • Grafana (0)
      • Superset (1)
    • 프로그래밍 (11)
      • 개발 환경 (4)
      • Python (3)
      • FastAPI (4)
    • 데이터베이스 (3)
      • PostgreSQL (3)
    • Google Cloud (2)
      • BigQuery (2)
    • 인프라 (3)
      • 리눅스 (3)
    • DevOps (5)
      • Docker (2)
      • Kubernetes (3)
    • AI (16)
      • 개념정리 (2)
      • Tools (0)
      • RAG (14)
    • 버전관리 (2)
      • Github (2)
    • 협업툴 (2)
      • Slack (1)
      • Notion (1)
    • 알고리즘 (3)
      • 개념정리 (0)
      • 백준 (0)
      • 프로그래머스 (3)
    • 블로그 (1)
공지사항
최근 글
인기 글
최근 댓글
전체 방문자
오늘
어제
전체
Copyright © 쭈미로운 생활 All rights reserved.
Designed by JJuum

티스토리툴바