240 发简信
IP属地:北京
  • Resize,w 360,h 240
    Transformer架构详解

    什么是 Transformer? Transformer 是一种神经网络架构,它从根本上改变了人工智能的方法。Transformer 首次出现在...

  • Resize,w 360,h 240
    一文学会大模型Transformer架构

    概述 Transformer模型架构是在论文Attentions is All you need 中提出的模型,其使用 Self-Attenti...

  • Resize,w 360,h 240
    Xinference部署

    xinference介绍 xinference 是⼀个强⼤且通⽤的分布式推理框架,也可以⽤于私有化部署和运⾏⼤语⾔模型,通过 xinferenc...

  • Resize,w 360,h 240
    本地部署deepseek r1模型

    概述 本地部署deepseek r1模型。 步骤 1.下载ollama并安装 https://ollama.com/[https://ollam...

  • ChatGLM API调用演示

    概述 部署ChatGLM3-6B私有模型后,写代码验证。 启动 登录到ai_project目录下的ChatGLM3目录,启动模型: 代码

  • Function Calling整理

    概述 本文整理Function Calling方法。 代码一 代码二 代码三

  • Chat Completion API详细参数

    概述 Chat Completion API详细参数如下。 代码 参数 model:必选参数,大模型的名称messages:必选参数,提示词;(...

  • Resize,w 360,h 240
    ChatGLM3-6B大模型Centos7部署

    概述 ChatGLM3 是由智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列...

  • Resize,w 360,h 240
    ChatGLM3-6B大模型windows部署

    概述 ChatGLM3 是由智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列...

个人介绍
左手学习架构设计,右手学习项目管理,正念放中间。实践中台的本质不在于知,而在于行;其验证不在于逻辑,而在于果。