Gitea,新一代的代码托管平台向中国数字化团队交付被广泛验证、可信赖的通用工具软件。 新一代的代码托管平台 Star 39,000+ 飞致云 上海吉谛 1 Gitea 开源项目介绍 Gitea 企业版介绍 3 Gitea 优势总结 2 代码托管平台的发展历程 阶段一 阶段二 阶段三 •单用户本地编辑; •没有网络功能; •典型产品:RCS、SCCS。 本地代码管理 •C/S 架构体系,支持网络化协作; •依赖中央存储库; •依赖中央存储库; •典型产品:CVS、 SVN、VSS、 TFS、 ClearCase。 集中式代码管理 •去中心化,稳定性和可用性增强; •更高效的代码协同机制; •典型产品:GitHub、GitLab、 Gitea。 分布式代码管理 基于 Git 的分布式 代码托管 具备 DevSecOps 延伸能力 Gitea 是谁? • 2016 年 11 月 fork 自 gogs,开始独立发展; GitHub 使用体验、可私有化部署的新一代的代码托管平台 DevSecOps 延伸能力 CI / CD 包/发布管理 依赖项扫描 百科管理 项目管理 其他能力… 合并请求 代码审查 分支管理 代码仓库 Git代码托管 核心能力 新一代的代码托管平台 Gitea 的定位 遵循典型的 Git flow 工作流程 编写代码 01 创建仓库 管理员创建仓库,分支保护策略0 码力 | 30 页 | 14.34 MB | 1 年前3
2024 中国开源开发者报告Agent 逐渐成为 AI 应用的核心架构 68 | 谈开源大模型的技术主权问题 72 | 2024:大模型背景下知识图谱的理性回归 77 | 人工智能与处理器芯片架构 89 | 大模型生成代码的安全与质量 93 | 2024 年 AI 大模型如何影响基础软件行业中 的「开发工具与环境」 98 | 推理中心化:构建未来 AI 基础设施的关键 Part 1:中国开源开发者生态数据 04 型 LLM 开发技术栈作为切入点,将深入探讨以下中国 AI 大模型领域的代表性开源项目社区。 这些开源项目社区覆盖了深度学习框架、向量数据库、AI辅 助编程、LLM 应用开发框架、模型微调、推理优化、LLM Agent,以及检索增强生成(RAG)等多个关键技术栈。 为了更全面客观地展示中国大模型 LLM 开发技术栈的开源 社区生态,我们使用了 对开源社区的生态评 估体系,希望通过这些数据洞察中国开源开发者在 生产力-协作开发指数 本部分图表仅用于数据展示,不涉及先后排名 作为国内及业内领先的 AI 开发基础设施,本部分图表 中的开发框架、向量数据库、 开发平台、大模型均表现出 色,代表着它们的代码提交 频率、参与者、代码合并比 率等协作开发工作保持着较 高的水平。 17 / 111 OSS Compass Insight 本部分图表仅用于数据展示,不涉及先后排名 稳健性-活跃度 作为 AI 开发生态中的关键组0 码力 | 111 页 | 11.44 MB | 8 月前3
清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单清华大学新闻学院与人工智能学 院双聘教授 沈阳团队博士后 何静 能做什么? 要怎么做? 效果如何? 一 能做什么? 数据挖掘 数据分析 数据采集 数据处理 数据可视化 AIGC 数据应用 通过编写爬虫代码、访问数据库、读取文件、调用API等方式,采 集社交媒体数据、数据库内容、文本数据、接口数据等。 通过数据清洗、数据集成、数据变换、特征工程等方式,实 现数据纠错、数据整合、格式转换、特征提取等。 DeepSeek R1 高效推理:专注于低延迟和 高吞吐量,适合实时应用。 轻量化设计:模型结构优化, 资源占用少,适合边缘设备 和移动端。 多任务支持:支持多种任务, 如文本生成、分类和问答。 Kimi k1.5 垂直领域优化:针对特定领域 (如医疗、法律)进行优化, 提供高精度结果。 长文本处理:擅长处理长文本 和复杂文档,适合专业场景。 定制化能力:支持用户自定义 适合资源有限的环境。 快速响应:优化推理速度, 适合实时交互场景。 通用性强:适用于多种自 然语言处理任务,如对话 生成和文本理解。 爬虫数据采集 1、阅读网页源代码,提取特定网页内容; 2、撰写python脚本; 3、提取并合并网址; 4、提取网址内容; 5、写入文件。 任务 你需要完成以下两个任务: 1.阅读网页【网址】源代码【对应网页源代码】。提取所 有包含“春运2025丨X月X日,全社会跨区域人员流动量完0 码力 | 85 页 | 8.31 MB | 8 月前3
2023 中国开源开发者报告产品整合 LLM 能力、 语音模型 whisper-3 更新、AI 虚拟主播创造等,都是在 这条路上的进一步发展。 五、 AI 编程方面,Copilot 可以根据开发者的代码提示自动补 全代码,大大提高了开发效率。这也引发了代码原创性的讨 论,但它已经实实在在将 LLM 拉进了编程应用领域。 六、 LangChain 的出现,实现了 LLM 之间的链式交互,使多 个 LLM 模型串联工作,发挥各自的优势,并且可以将 58 | 备案上线的中国大模型 21 | 硬核发版 26 | 热门话题 33 | 重磅官宣 39 | R.I.P. 62 | 插件、IDE、终端 63 | 代码生成工具 64 | LLM Agent 67 | LLMOps 68 | 大模型聚合平台 69 | 开发工具 70 | 算力 出品:OSCHINA & Gitee 编委会: 87 1 1 开源开发者事件回顾 Auto-GPT 横空出世,席卷 AI 圈 “零一万物”发布 Yi 系列开源大模型 Vercel 发布"v0":根据文本生成 UI 代码 v0 是一款根据文本生成 UI 界面代码的 AI 产品,只要输入文字提示,即可生成 需要的 UI 组件界面。 智谱 AI 开源 ChatGLM-6B 大模型 GPT-4 发布不久后,一款让这个最强大语言模型能够自主完成任务的开源项0 码力 | 87 页 | 31.99 MB | 1 年前3
2023年中国基础软件开源产业研究白皮书www.iresearch.com.cn 基础软件开源界限划分 操作系统、数据库、中间件、AI框架底层代码按规范进行共享与协作 本篇报告研究的基础软件开源范围,是指研究“开源”中“基础软件”板块的情况。开源过程中,参与者可以共享、协作完成开发, 正好与基础软件庞大的开发量需求相契合。这种契合性促进了基 注释:由于暂无国内厂商主导的开源编程语言,因而不列入本报告研究范围。 来源:根据专家访谈、公开资料,由艾瑞咨询研究院自主研究及绘制。 对于这四类基础软件(操作系统、数据库、AI框架、中间件),其编写者将实现功能的代码按照一定的开源规范 开放,任何人可以查看、使用、贡献,同时,使用者也要遵循一定的开源规范。 基础软件开源范畴界定 国内基础软件开源界定 基础软件 具备能衍生出并支撑 多个技术簇的一类根 技术软件,拥有技术 社区协作:鼓励各方在开放平台上协作 贡献,推动开源内容的发展 创新改进:通过资源共享与协作共生, 提升开源内容质量,并产生新的内容 自由共享:开源内容可以免费被任何人 查看、学习、使用 透明与可审查:开源的源代码可以被任 何人审查验证、保持质量 开源精神 通过传递一种对于知 识分享、知识透明和 平等合作的价值观, 凝聚群众力量,促进 开源内容传播应用与 迭代升级,达到社会 集体效应最大化 5 ©20230 码力 | 43 页 | 4.69 MB | 1 年前3
DeepSeek从入门到精通(20250204)商用。 Deepseek可以做什么? 直接面向用户或者支持开发者,提供智能对话、文本生成、语义理解、计算推理、代码生成补全等应用场景, 支持联网搜索与深度思考模式,同时支持文件上传,能够扫描读取各类文件及图片中的文字内容。 文本生成 表格、列表生成(如日程安排、菜谱) 代码注释、文档撰写 结构化生成 文章/故事/诗歌写作 营销文案、广告语生成 社交媒体内容(如推文、帖子) 剧本或对话设计 实体提取(人名、地点、事件) 文本分类 文本分类 主题标签生成(如新闻分类) 垃圾内容检测 编程与代码相关 代码调试 • 错 误 分 析 与 修 复 建议 • 代 码 性 能 优 化 提 示 技术文档处理 • API文档生成 • 代码库解释与示 例生成 代码生成 • 根 据 需 求 生 成 代 码片段(Python、 JavaScript) • 自 动 补 全 调深度推理能力。此类模型通常通过对大量文本数据的训练,掌握语言规律并能够生成合适的内容,但缺乏像 推理模型那样复杂的推理和决策能力。 维度 推理模型 通用模型 优势领域 数学推导、逻辑分析、代码生成、复杂问题拆解 文本生成、创意写作、多轮对话、开放性问答 劣势领域 发散性任务(如诗歌创作) 需要严格逻辑链的任务(如数学证明) 性能本质 专精于逻辑密度高的任务 擅长多样性高的任务 强弱判断0 码力 | 104 页 | 5.37 MB | 8 月前3
清华大学 DeepSeek 从入门到精通商用。 Deepseek可以做什么? 直接面向用户或者支持开发者,提供智能对话、文本生成、语义理解、计算推理、代码生成补全等应用场景, 支持联网搜索与深度思考模式,同时支持文件上传,能够扫描读取各类文件及图片中的文字内容。 文本生成 表格、列表生成(如日程安排、菜谱) 代码注释、文档撰写 结构化生成 文章/故事/诗歌写作 营销文案、广告语生成 社交媒体内容(如推文、帖子) 剧本或对话设计 实体提取(人名、地点、事件) 文本分类 文本分类 主题标签生成(如新闻分类) 垃圾内容检测 编程与代码相关 代码调试 • 错 误 分 析 与 修 复 建议 • 代 码 性 能 优 化 提 示 技术文档处理 • API文档生成 • 代码库解释与示 例生成 代码生成 • 根 据 需 求 生 成 代 码片段(Python、 JavaScript) • 自 动 补 全 调深度推理能力。此类模型通常通过对大量文本数据的训练,掌握语言规律并能够生成合适的内容,但缺乏像 推理模型那样复杂的推理和决策能力。 维度 推理模型 通用模型 优势领域 数学推导、逻辑分析、代码生成、复杂问题拆解 文本生成、创意写作、多轮对话、开放性问答 劣势领域 发散性任务(如诗歌创作) 需要严格逻辑链的任务(如数学证明) 性能本质 专精于逻辑密度高的任务 擅长多样性高的任务 强弱判断0 码力 | 103 页 | 5.40 MB | 8 月前3
Moonshot AI 介绍Schulman亲⾃邀请加盟。 iv. 基础设施⽅⾯。团队核⼼成员曾带领数⼗⼈从零开发世界领先的深度学习框架,也具备数千 卡集群全⾃动化硬件运维告警、数百亿特征检索、⼤规模(数⼗PB数据、百万台机器)分 布式系统数量级性能优化的经验。 c. ⽬前团队⼈数超过80⼈,每个⽉都有在全球某个领域有显著影响⼒的⼈加⼊。 2.团队聚焦底层技术创新,技术Vision强 a. 引领⼤模型的“⽆损⻓上下⽂”时代。202 息,还可以根据你的需求⽣成代码、快 速Debug,覆盖Python、C++、Java等多种编程语⾔。 【适⽤⼈群】 • 学术科研⼈群:快速阅读并深⼊理解⼤量⽂献,⽤⺟语掌握⽂献的精髓,解释复杂学术概念,分析 研究结果,撰写论⽂,回应审稿⼈的建议。 • 互联⽹从业者:⾼效搜集信息,辅助竞品分析、运营策划等⽅案撰写。 • 程序员:辅助编程、问题解答、代码注释、API⽂档阅读,⽀持 海外独⻆兽:contextlength的提升存在什么规律?有技术可预⻅性吗? 杨植麟:我⾃⼰感觉存在contextlength的摩尔定律。但需要强调:给定⻓度下的准确率也⾮常重 要,需要同时优化⻓度和准确率(⽆损压缩)两个指标。 在保证模型能⼒和智商的情况下,我觉得⼤概率contextlength的提升是指数级增⻓的。 多模态:⼤部分架构不值得被scaleup 海外0 码力 | 74 页 | 1.64 MB | 1 年前3
清华大学 普通人如何抓住DeepSeek红利,擅长处理复杂任务且可免费商用。性能对齐OpenAI-o1正 式版。 • DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大 提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩OpenAl-o1正式版。 (Pass@1) (Percentile) 直接面向用户或者支持开发者,提供智能对话、文本生成、语义理解、计算推理、代码生成补全等应用场 景, 支持联网搜索与深度思考模式,同时支持文件上传,能够扫描读取各类文件及图片中的文字内容。 决策支持 文体转换 个性化推荐 翻译与转换 多语言翻译 异常检测 多源信息融合 知识与推理 知识图谱构建 流程优化 数据可视化 数据分析 趋势分析 多模态交互 任务执行 任务协调 任务协调 工具调用 格式转换 关系抽取 语言理解 文案写作 代码注释 故事创作 通用问答 专业领域问答 因果推理 知识推理 问答系统 逻辑推理 自然语言处理 文本生成与创作 建议生成 风险评估 辅助决策 概念关联 知识整合 交互能力 情感分析 文本分类 图像理解 跨模态转换 专业建议 任务分解 情感回应 上下文理解 对话能力 多轮对话 数学运算0 码力 | 65 页 | 4.47 MB | 8 月前3
开源中国 2023 大模型(LLM)技术报告在多个领域都取得了令人瞩目的成就。在自然语言处 理领域,GPT 系列模型在文本生成、问答系统和对话生成 等任务中展现出色的性能。在知识图谱构建、智能助手开发 等方面,LLM 技术也发挥了关键作用。此外,它还在代码 生成、文本摘要、翻译等任务中展现了强大的通用性。 本报告从技术人视角出发,将深入探讨 LLM 技术的背景、 基础设施、应用现状,以及相关的工具和平台。 2 / 32 LLM Tech Map Agent 备案上线的中国大模型 知名大模型 知名大模型应用 大模型 算力 工具和平台 LLMOps 大模型聚合平台 开发工具 AI 编程 插件、IDE、终端 代码生成工具 编程语言 3 / 32 LLM 技术背景 Transformer 架构和预训练与微调策略是 LLM 技术的核心,随着大规模语言数据集的可用性和计算能 力的提升,研究者们开始设计更大 03 02 04 向量数据库/数据库向量支持 为大模型提供高效的存储和检索能力 大模型框架及微调 (Fine Tuning) 大模型框架提供基本能力和普适性,而微调 则是实现特定应用和优化性能的关键环节 大模型训练平台&工具 提供了在不同硬件和环境中训练大语言模型 所需的基础设施和支持 编程语言 以 Python 为代表 5 / 32 LLM 基础设施:向量数据库/数据库向量支持0 码力 | 32 页 | 13.09 MB | 1 年前3
共 174 条
- 1
- 2
- 3
- 4
- 5
- 6
- 18













