网上很多教程教你怎么自己搭 AI 模型,但今天我要教大家一个野路子——用搜索引擎直接找别人已经搭好的 AI(Ollama)服务(前提是合法使用)。就像有人忘记关 Wi-Fi,我教你怎么发现这些"公共资源"。
一、用 Fofa 找公开的 AI 服务
Fofa 是什么?Fofa 是一个网络空间测绘搜索引擎,相当于一个专门搜网络设备的百度,能找出各种暴露在公网的服务。
操作步骤:
- 打开网站:https://fofa.info
- 在搜索框粘贴这句话:app="Ollama" && is_domain=false(意思是找直接暴露 IP 地址的 Ollama 服务)
图片
- 点搜索,你会看到一堆带 IP 和端口的结果,比如:114.220.20.30:11434
图片
结果怎么看?
- 看到类似http://IP:11434的地址,可以试试浏览器访问
- 如果能打开 Ollama 的 API 文档页面,说明找到可用服务了
- 重要提醒:就像不能乱连别人 Wi-Fi,这里也请确认服务是公开可用的
二、用 Shodan 找更多资源
Shodan 是啥?用大白话解释:Shodan 是互联网设备的“搜索引擎”,但它不搜网页内容,而是专门找各种联网的“设备”和“服务”。
好比说,Google 能搜到“蛋糕的做法”,而 Shodan 能搜到“哪些烤箱连上了互联网且没设密码”。
操作流程:
- 访问 shodan.io
- 直接搜:Ollama is running(找正在运行的 Ollama 服务)
图片
- 结果里会显示 IP、端口和基础信息
举个栗子:
- 看到http://203.120.5.6:11434这样的地址
- 如果能打开 Ollama 的 API 文档页面,说明找到可用服务了
- 记得先检查是否有免责声明或使用条款
三、怎么用找到的 AI 服务
方法 1:直接调接口
import requests import json # Ollama默认地址(如果是公开服务需替换IP和端口) OLLAMA_URL = "http://ip:11434/api/generate" def stream_chat(prompt, model="deepseek-r1"): payload = { "model": model, "prompt": prompt, "stream": True# 开启流式传输 } try: with requests.post(OLLAMA_URL, jsnotallow=payload, stream=True) as response: response.raise_for_status() full_response = [] for line in response.iter_lines(): if line: chunk = json.loads(line.decode('utf-8')) print(chunk['response'], end='', flush=True) # 实时输出 full_response.append(chunk['response']) return''.join(full_response) except Exception as e: print(f"\n流式请求异常: {e}") returnNone # 使用示例 stream_chat("写一个关于人工智能的短故事")
方法 2:用 Chatbox 客户端
- 下载 Chatbox(https://chatboxai.app)
- 找到左下角 设置 → 模型提供方选 Ollama → 填找到的 IP 地址
图片
保存后直接开聊,和用 ChatGPT 一样
四、安全须知(必看!)
- 合法第一:只访问明确标注"公开测试"的服务,别当黑客
- 保护自己:不要用这类服务处理隐私信息
- 防范风险:如果发现服务异常(比如要你输密码),立刻退出
- 做好人:如果你自己搭服务,记得:
用密码保护(像 Wi-Fi 设密码)
关掉不需要的端口(像出门锁好门)
定期更新系统(像给手机升级系统)
五、这种玩法有啥用?
- 学习测试:零成本体验 AI 模型
- 紧急备用:当你的 API 额度用完时的 Plan B
- 项目演示:快速做个原型 demo
- 技术研究:观察不同部署配置的性能差异