多模型支持
一套命令行界面,灵活切换 GPT、DeepSeek、Qwen 等顶流大模型, 按场景选择最合适的引擎,支持自定义 API Host / Key。
y 是一个专为开发者 / 运维 / DevOps 打造的命令行 AI 助手, 支持 GPT、DeepSeek、Qwen, 能直接在终端对话、生成并执行命令、生成 K8s 模板、扫描并修复 YAML / Ansible 配置, 还支持联网搜索。
不仅能“回答问题”,更能真正“帮你干活”的命令行 AI 工具。
一套命令行界面,灵活切换 GPT、DeepSeek、Qwen 等顶流大模型, 按场景选择最合适的引擎,支持自定义 API Host / Key。
无需打开浏览器或单独客户端,在 Shell 中直接提问, 承载你的“随手 Google + ChatGPT”习惯。
用自然语言描述目标,AI 自动生成 shell 命令,并支持确认后执行, 降低误操作风险。
自动生成 Deployment、Service、Ingress 等 K8s YAML 模板, 支持按镜像、端口、副本数等自定义。
扫描并修复 YAML 错误,支持 Kubernetes YAML 和 Ansible Playbook, 发现缩进、字段、版本等常见问题。
模型 + 搜索引擎双重加持,实时获取最新信息,适合排障、 查 Bug、找配置方案等场景。
无需编译,直接下载二进制文件即可使用。
Linux / macOS 使用 curl:
curl -L -o y https://y.lab4.cn/public/y
chmod +x y
sudo mv y /usr/local/bin/
Linux / macOS 使用 wget:
wget https://y.lab4.cn/public/y -O y
chmod +x y
sudo mv y /usr/local/bin/
Windows(PowerShell 下载后手动加入 PATH):
Invoke-WebRequest "https://y.lab4.cn/public/y" -OutFile "y.exe"
用自然语言描述你要做的事,其余交给 y。
y config 配置各模型 API Key
把 y 当作“命令行版 ChatGPT”,随时提问 / 解释 / 生成代码片段。
# 解释一段 Python 代码
y "帮我解释一下这段 Python 代码在做什么"
# 让 AI 提供实现思路
y "实现一个支持重试的 HTTP 请求封装,用 Go 写"
用自然语言描述目标,让 y 生成 shell 命令,并在确认后执行。
# 创建新用户并加入 docker 用户组
y -e "创建一个名为 deploy 的用户,并加入 docker 组"
# 生成并执行 systemd 服务配置相关命令
y -e "为 /usr/local/bin/myapp 创建 systemd 服务并设置开机自启"
自动生成 Deployment / Service / Ingress 等 K8s 配置, 减少手写 YAML 的机械重复。
# 带 Service 的 nginx 应用
y "生成一个 nginx deployment 和 service,副本数 3,端口 80"
# 带 HPA 的服务
y "生成一个带 HPA 的后端服务,镜像为 my/backend:latest"
对已有 YAML / Ansible Playbook 做静态检查,自动修复缩进、字段、 版本等常见问题。
# 修复 Kubernetes YAML 文件
y -a ./nginx-deployment.yaml
# 修复 Ansible Playbook
y -a ./site.yml
当本地知识不足时,使用联网搜索能力获取最新信息, 再由模型整合给出结论。
# 排查 K8s CrashLoopBackOff
y -w "k8s 出现 CrashLoopBackOff 的常见原因与排查步骤"
# 查基础设施优化建议
y -w "提高 Linux 文件系统 I/O 性能有哪些方案"
首次使用或切换模型时,执行配置向导,按提示填写对应平台的 API Key。
# 启动交互式配置
y -t
# 根据提示配置:
# - GPT / DeepSeek / Qwen API Keys
# - 模型名称
# - 默认使用的模型
如果下面没有覆盖你的问题,可以直接在终端里问 y。
y.exe 并加入 PATH。