RunanywhereAI/runanywhere-sdks

⭐ 10,345 Stars 🍴 345 Forks C++ NOASSERTION

RunAnywhere 是一个生产就绪的工具包,用于在本地运行 AI,提供离线、隐私保护和快速的性能。

来源:据 README 描述 查看 GitHub 仓库 →

为什么值得关注

RunAnywhere 受关注的原因包括其隐私保护、离线运行和快速性能的特点,填补了移动设备上本地 AI 运行的空白。它提供了多种 AI 功能,如 LLM 聊天、语音识别和合成,以及独特的本地推理能力。

来源:综合 README 描述和项目特征

核心功能

本地 AI 运行

RunAnywhere 允许在设备上运行 AI 模型,无需云服务,确保数据隐私和减少延迟。

来源:据 README 描述
多平台支持

支持 Swift (iOS/macOS)、Kotlin (Android)、Web、React Native 和 Flutter,适用于多种开发场景。

来源:据 README 描述
丰富的 AI 功能

提供 LLM 聊天、语音识别、语音合成、图像生成和视觉语言模型等功能,满足多样化的 AI 应用需求。

来源:据 README 描述

技术架构

项目采用模块化设计,每个平台都有独立的 SDK,模块之间通过定义良好的接口进行交互。数据在本地设备上处理,关键的技术决策包括使用本地推理引擎和优化模型以适应移动设备。

来源:代码目录结构 + 依赖文件

技术栈

infra: 信息不足,待补充  |  key_deps: LlamaCPP, RunAnywhere Core, Genie NPU Backend  |  language: C++  |  framework: Swift Package Manager, Gradle, npm, pub.dev

来源:依赖文件 + 代码目录结构

快速上手

Swift (iOS/macOS): import RunAnywhere import LlamaCPPRuntime try RunAnywhere.initialize() try await RunAnywhere.downloadModel("smollm2-360m") try await RunAnywhere.loadModel("smollm2-360m") let response = try await RunAnywhere.chat("What is the capital of France?") print(response) Kotlin (Android): import com.runanywhere.sdk.public.RunAnywhere import com.runanywhere.sdk.public.extensions.* RunAnywhere.initialize(environment = SDKEnvironment.DEVELOPMENT) RunAnywhere.downloadModel("smollm2-360m") RunAnywhere.loadLLMModel("smollm2-360m") val response = RunAnywhere.chat("What is the capital of France?") println(response) React Native: import { RunAnywhere, SDKEnvironment } from '@runanywhere/core' import { LlamaCPP } from '@runanywhere/llamacpp' await RunAnywhere.initialize({ environment: SDKEnvironment.Development }); LlamaCPP.register(); await RunAnywhere.downloadModel('smollm2-360m'); await RunAnywhere.loadModel('smollm2-360m'); const response = await RunAnywhere.chat('What is the capital of France?'); console.log(response);
来源:README Installation/Quick Start

使用场景

RunAnywhere 适用于需要将 AI 功能集成到移动应用中的开发者,例如:开发聊天机器人、语音助手、图像识别应用等。

来源:README

优势与局限

优势

  • 优势1:提供多种 AI 功能,满足多样化的应用需求
  • 优势2:支持多平台,适用于不同开发场景
  • 优势3:本地推理,保护用户隐私

局限

  • 局限1:可能需要额外的优化以适应不同设备的性能
  • 局限2:依赖本地设备资源,可能影响应用性能
来源:综合 README、代码结构和依赖分析

最新版本

genie-v0.3.0 (2026-03-20): Genie v0.3.0 - Native Binaries v0.19.7 (2026-03-19): RunAnywhere SDKs v0.19.7 v0.19.6 (2026-02-24): RunAnywhere SDKs v0.19.6

来源:GitHub Releases

总结评价

RunAnywhere 是一个值得关注的开源项目,特别是对于需要将 AI 功能集成到移动应用中的团队和个人。它提供了强大的本地 AI 运行能力,同时支持多种平台,适合追求隐私保护和高性能的应用开发。

来源:综合分析
透明度声明
本页内容由 AI(大语言模型)基于以下公开材料自动生成:GitHub README、代码目录结构、依赖文件、Release 信息。 分析时间:2026-04-13 00:37。质量评分:85/100。 所有结论均标注了数据来源。如发现不准确之处,欢迎反馈。

数据来源: README、GitHub API、依赖文件