📝

win-ai-local

2329
0次下载
2次浏览
2026/3/9

Run LLMs locally on Windows via Ollama. Manage models, generate text, chat, and detect AI hardware (NPU, GPU, DirectML, WinML).

广告位 300x250

资源信息

数据来源
bigquery-gharchive
分类
uncategorized
创建时间
2026/3/9
更新时间
2026/3/14

评论 (0)

登录后发表评论

加载中...