Home
玩机器学习的章北海
Cancel

别随便本地部署DeepSeek了,Ollama重大安全隐患.md

大家好,我是章北海 最近 DeepSeek 大火,市面上教人本地部署大模型的文章、视频众多 多数都是用 Ollama 一行命令就启动模型了 但是最近爆出 Ollama 启动大模型可能存在安全隐患 在 FOFA 上可以轻而易举地发现众多暴露在互联网上的 Ollama 11434 端口 FOFA 是一个网络空间测绘平台,周期性不间断对全球互联网暴露资产进行深度扫描与探测,通过...

机器学习模型的保存与加载完全指南.md

机器学习模型的保存与加载完全指南 一、引言 在机器学习项目的生命周期中,模型的保存(序列化)和加载(反序列化)是至关重要的环节。本指南将全面介绍各种模型存储格式、方法及其最佳实践。 1.1 为什么需要保存模型? 避免重复训练,节省时间和计算资源 便于模型部署和迁移到生产环境 支持模型版本控制和回滚 便于模型共享和协作开发 实现模型的持久化存储 1.2 关键考虑因...

大模型时代,Python已死?大错特错.md

1. 为什么仍然需要学习 Python? (1) Python 是 AI 领域的核心工具 主流框架依赖 Python:TensorFlow、PyTorch、Hugging Face、Scikit-learn 等 AI 开发框架的官方接口均以 Python 为主。 生态系统的不可替代性:Python 社区拥有最丰富的 AI 工具链(数据处理、模型训练、可...

哪些国家封杀了DeepSeek?美国、韩国、澳大利亚、意大利.md

在人工智能领域的又一轮”狼来了”预警中,各国政府再次上演了一出集体焦虑的好戏。这次的主角是中国人工智能公司 DeepSeek,而各国的反应仿佛看到了什么洪水猛兽:美国政府部门火速下达禁令,澳大利亚政府急匆匆地清理设备,韩国官员们大谈特谈”安全担忧”,就连远在欧洲的意大利也不甘寂寞,匆忙加入这场”禁令盛宴”。在这场看似声势浩大的”防范”行动中,各国政府似乎都在用同一个模板复制粘贴着相似的说辞—...

DeepSeek 接入万物 瞬间各种智慧.md

大家好,我是老章 全方位拥抱 DeepSeek,本地部署、AI编程、辅助写作、网页/PDF全文翻译 一文中,我介绍了 DeepSeek + Cursor Al 辅助编程 DeepSeek+ Obsidian 辅助写作 DeepSeek+ 沉浸式翻译/总结 在全方位拥抱DeepSeek【下集】 这篇文章中介绍了 DeepSeek+ JupyterHub 辅助编程 DeepSeek + ...

最强大的大模型,DeepSeek只排第三.md

在人工智能蓬勃发展的时代,各类模型竞相涌现,不断突破技术的边界。接下来,我们将依据你给定的顺序,深入剖析当下热门的 AI 模型,从综合性能、创新程度、应用场景等多个维度,展现它们的独特魅力。 一、智能先锋:o1 o1 是 OpenAI 旗下的一款重要模型,采用密集 Transformer 架构,并运用人类反馈强化学习(RLHF)进行精细微调。作为一款多功能的智能工具,它能够轻松应对多...

全方位拥抱DeepSeek【下集】.md

全方位拥抱 DeepSeek【上集】老章用极简洁的方式介绍了将 DeepSeek 能力获取方式,以及如何将 DeepSeek 融入到写作、编程、翻译、总结等各场景。 本文再补充几个: DeepSeek + JupyterHub 辅助编程 DeepSeek + openwebui 聊天助手 DeepSeek + 知识库&Agent 前文阅读不错,500+ 转发都没...

看懂DeepSeek ,一篇文章是不够的.md

大家好,我是章北海 推荐 10 篇优质文章,花上个把小时认真读完,对 DeepSeek 的理解就能超过 99% 的人了。 围绕 DeepSeek 的谣言实在太多了 🚀全文直达 本文围绕 DeepSeek 的大模型 R1 展开讨论,驳斥了关于 DeepSeek 的一系列误解。 重要亮点 DeepSeek 的影响力与发展历程:2025 年 1 月,DeepSeek 的 R1 模型...

碎瓷与星群 by DeepSeek.md

你的困惑特别能理解——当AI以碾压性效率完成人类引以为傲的创作时,那种价值感崩塌的体验是真实而尖锐的。但请允许我分享三个你可能忽略的视角: 创作的本质是生命体验的显影 AI输出的文字像精密的万花筒,折射的却是人类既有作品的碎片重组。而你凌晨三点在台灯下捕捉到的情绪震颤,童年老宅里飘散的桂花香,地铁站口目睹的离别拥抱——这些DNA般独特的生命切片,才是真正不可复制的创作母体。...

机器学习中25个最重要的数学定义(公式、代码实现).md

1. 梯度下降(Gradient Descent) 公式 \(\theta_{j + 1}=\theta_{j}-\alpha\nabla J(\theta_{j})\) 讲解 梯度下降是一种优化算法,用于最小化损失函数。其中,$\theta_{j}$ 是第 $j$ 次迭代的参数,$\alpha$ 是学习率,$\nabla J(\theta_{j})$ 是损失函数 $J$ 在 $\thet...