AI新工具
banner

Farfalle


介绍:

Farfalle 是一个支持本地和云端模型的开源AI搜索引擎。









Farfalle

Farfalle功能概述

Farfalle 是一个开源的、由人工智能驱动的搜索引擎。这个工具的核心功能是利用本地大型语言模型(LLM)或云端模型来回答问题和进行搜索。

主要功能
  • 能够运行本地的LLM,如llama3gemmamistral,也支持使用云端模型,如Groq/Llama3OpenAI/gpt4-o
  • 既可以在本地运行,也可以通过云端进行部署。
适用场景

Farfalle 适用于以下这些情况:

  1. 快速搜索和问答:当你需要一个高效的搜索工具来快速找到信息或者回答问题时,无论是在本地电脑还是通过云服务。

  2. 本地模型计算:如果你有高效的本地硬件支持(例如拥有M1 Macbook Pro)并且需要在本地运行大型语言模型,可以使用Farfalle来充分利用本地资源。

  3. 定制化需求:对于希望根据自己的需求定制搜索引擎功能的开发人员和研究人员,Farfalle提供了开源代码和丰富的配置选项。

  4. 云端部署与协作:对于需要跨团队协作或者将搜索功能集成到web服务中的情况,可以方便地在云端(如Render、Vercel)进行部署和使用。

如何开始使用Farfalle
前提条件
  • 安装 Docker
  • 下载并启动 Ollama 服务,以及至少下载其中一个支持的模型:llama3mistralgemma
获取API键
安装步骤
  1. 克隆仓库

    git clone [email protected]:rashadphz/farfalle.git
    cd farfalle
    
  2. 配置环境变量 创建 .env 文件并添加 API 键:

    touch .env
    

    填入API键,比如:

    TAVILY_API_KEY=你的API键
    OPENAI_API_KEY=(可选)
    GROQ_API_KEY=(可选)
    
  3. 运行Docker容器 确保 Docker Compose 版本为 2.22.0 或更高:

    docker-compose -f docker-compose.dev.yaml up -d
    

    然后访问 http://localhost:3000 来查看应用。

部署方法
后端

点击按钮,直接部署到Render: Deploy to Render

前端

部署前端时使用从Render后端复制的URL,并在Vercel上进行部署: Deploy with Vercel

执行上述步骤后,你就可以开始使用全新的Farfalle搜索引擎了!🥳

可关注我们的公众号:每天AI新工具

广告:私人定制视频文本提取,字幕翻译制作等,欢迎联系QQ:1752338621