关注

拒绝羡慕 Cursor!Xcode 自己也能利用 AI 大模型让撸码如虎添翼【超详细配置】

在这里插入图片描述

作为一名还算合格的 Apple 开发秃头码农,宝子们曾经在 Cursor、VSCode、Trae 等多个智能 IDE 中流连忘返,寻求安慰。

小伙伴们多么希望 Xcode 也可以借助 AI 之力乘风而上!这次,宝子们要美梦成真了。我们国行版的中文 mac 系统无需任何改 ID、换区、破解打补丁之类的繁琐操作,即可让 Xcode 原生支持 AI Coding Intelligence

在这里插入图片描述

在这里插入图片描述

无需等待,让我们马上开始 Xcode AI Coding 的乘风破浪之旅吧!
Let’s go!!!😉


1. 系统要求

首先,macOS 需要 26.0(Tahoe)Developer beta 版,至于具体是 beta 第几版,不甚明了,反正我用的是 beta 6 版本。

在这里插入图片描述

Xcode 本身则需要 26.0 beta6 或以上版本,beta5 版本未做验证,情况不明。

至于 Mac 硬件的配置自然是越强越好,毕竟到时候内存太小放不下大模型,宝子们岂不又会急的多挠掉几千根头发。

2. 启用步骤

运行 Xcode,从全局菜单打开设置页面,进入 Intelligence 选项卡:

在这里插入图片描述

点击添加大模型提供者(Add a Model Provider)按钮,即可恣意选择我们心仪的大模型啦:
在这里插入图片描述

因为“国行” macOS 系统本身默认不会嵌入 Apple 官方本地的大模型,所以我们只有两种选择:远端大模型(比如 OpenAI 的 GPT)或者本地自己的大模型。

3. 搭建本地大模型环境

用本地大模型的好处是完全免费,而且如果你电脑性能强劲(内存+芯片)的话,token 生成速度也是杠杠的。

要想在 macOS 中搭建本地 AI 大模型调用环境有很多种方式。这里,我们使用的是 Ollama。

安装 Ollama 之后,打开设置窗口,我们可以登录账号并且选择大模型的本地存放路径:

在这里插入图片描述

如上图所示,我们还可以调整大模型上下文的长度以满足实际需求。

接下来,打开 Ollama,可以看到熟悉的聊天窗口环境:
在这里插入图片描述

我们此时可以在多种大模型中任性选择,在第一次使用(调用)之前 Ollama 会自动为我们下载大模型的对应文件:
在这里插入图片描述

注意,参数越多的大模型体积也会越大,比如 OpenAI 最新的开源大模型 gpt-oss:20b 体积大约为 12 GB 左右。

Ollama 运行后会默认创建本地 API 调用地址:

http://localhost:11434

所以,我们需要在 Xcode 中配置正确的端口号:

在这里插入图片描述

在 Xcode 连接上 Ollama 之后,如果 Ollama 中包含了多个大模型,我们可以进一步选择所需的大模型:

在这里插入图片描述

4. 在 Xcode 中使用 AI Coding Intelligence

在大模型配置完毕之后,在 Xcode 使用起来简直轻松的不要不要的。

首先,我们可以选择想要沟通的大模型类型:

在这里插入图片描述

接下来的使用就和 Cursor 之类的 AI 辅助撸码 IDE 差不多了。比如,在 Xcode 里我们可以让 AI 解释一段代码的功能:

在这里插入图片描述

在这里插入图片描述

或者让 AI 提供问题的解决方案:

在这里插入图片描述

甚至干脆让它直接动手为我们撸码来排忧解难:

在这里插入图片描述

5. 扩展

现在,在 mac 或 iPhone 上本地嵌入大模型已成为一种趋势,大模型一个维度也在向小型化、浓缩化蓬勃发展着:

在这里插入图片描述
在这里插入图片描述

比如,在上面我编写的 APP 中用仅仅 0.6B 的“小”模型(700MB不到)就在 mac 上较好的回答了用户的问题。

同样的“小模型”,在 iPhone 对应的 App 中运行起来也是如鱼得水,怡然自得:

在这里插入图片描述

在这里插入图片描述

看到这里,小伙伴们有没有一丢丢的心动呢?

心动不如行动,是时候操练起来了哦!棒棒哒!💯

感谢宝子们的观看,再会啦!😎

转载自CSDN-专业IT技术社区

原文链接:https://blog.csdn.net/mydo/article/details/150581041

评论

赞0

评论列表

微信小程序
QQ小程序

关于作者

点赞数:0
关注数:0
粉丝:0
文章:0
关注标签:0
加入于:--