Trends Artificial Intelligence
Big Six* USA Technology Company CapEx *Apple, NVIDIA, Microsoft, Alphabet, Amazon (AWS only), & Meta Platforms Source: Capital IQ (3/25), Morgan Stanley 2014 2024 CapEx, $B +63% $212B Details on …Increasingly, two hefty forces – technological and geopolitical – are intertwining. Andrew Bosworth (Meta Platforms CTO), on a recent ‘Possible’ podcast described the current state of AI as our space race based of smartphones & tablets in 2020. Cloud & data center capex includes Google, Amazon, Microsoft, Meta, Alibaba, Apple, IBM, Oracle, Tencent, & Baidu for ten years ending 2022. ‘Tens of billions of units’0 码力 | 340 页 | 12.14 MB | 5 月前3
 普通人学AI指南任 务,如自然语言理解、图像识别、语音识别等。 闭源大模型包括 OpenAI 的 GPT 系列和 Google 的 BERT。这些模型因其 高效的学习能力和强大的通用性而受到关注。 开源大模型以 Meta 的 Llama 系列,2024 年 4 月,Llama3 发布,包括 8B 和 70B 模型。 图 2,时间线主要根据技术论文的发布日期(例如提交至 arXiv 的日期)来 确定大型语言模型(大小超过 工具,旨在提高 AI 应用的可访问性和效 率。 2.6.4 Llama3 描述:Meta 推出的最新开源大型语言模型,具有高级自然语言处理能力,适用 于多种 AI 任务。 3 零代码本地部署 AI 后端 首先介绍一种最精简的本地部署大模型的方法。使用目前最强开源大模型 LlaMA3,2024 年 4 月 19 日,Meta 公司发布,共有 8B,70B 两种参数,分 为基础预训练和指令微调两种模型。0 码力 | 42 页 | 8.39 MB | 8 月前3
 DeepSeek-V2: A Strong, Economical, and Efficient
Mixture-of-Experts Language ModelDeepSeek 67B (DeepSeek-AI, 2024) (our previous release), Qwen1.5 72B (Bai et al., 2023), LLaMA3 70B (AI@Meta, 2024), and Mixtral 8x22B (Mistral, 2024). We evaluate all these models with our internal evaluation versatility and utility in a wider range of scenarios. References AI@Meta. Llama 3 model card, 2024. URL https://github.com/meta-llama/llama3/bl ob/main/MODEL_CARD.md. J. Ainslie, J. Lee-Thorp, M. de0 码力 | 52 页 | 1.23 MB | 1 年前3
 清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单DeepSeek发布后在1月27日迅速登顶美国下载榜首;截 至1月30日,DeepSeek在168个国家位居下载榜第一名。 • OpenAI的CEO奥特曼承认DeepSeek的技术实力,并表 示将继续加快自身模型的迭代。 • Meta成立四个专门研究小组来分析DeepSeek R1的工作 原理,并基于此改进其大模型Llama 。 • 英伟达、微软、亚马逊等国际巨头纷纷接入DeepSeek。 DeepSeek R1引发全球关注 中文支持弱于本土模型 OpenAI GPT-4o 闭源大语言模型 多语言处理、文本生成、 创意内容创作 全模态能力行业领先; 实时交互响应快;商业化成熟度高 训练成本高;运营成本高 数据隐私争议大 Meta Llama 3.2 开源大语言模型 多语言支持、内容生成、 信息检索 完全开源免费;社区支持广泛; 多语言基础能力均衡 多模态功能缺失; 长文本生成质量不稳定 Anthropic Claude-30 码力 | 85 页 | 8.31 MB | 8 月前3
 DeepSeek从入门到精通(20250204)提示语链的概念与特征 提示语链是用于引导AI生成内容的连续性提示语序列。通过将复 杂任务分解成多个可操作的子任务,确保生成的内容逻辑清晰、 主题连贯。从本质上看,提示语链是一种“元提示”(meta-prompt) 策略,它不仅告诉AI“做什么”,更重要的是指导AI“如何做”。 提示语链的设计和应用建立在多个理论基础之上,包括认知 心理学、信息处理理论、系统理论、创造性思维理论和元认0 码力 | 104 页 | 5.37 MB | 8 月前3
 清华大学 DeepSeek 从入门到精通提示语链的概念与特征 提示语链是用于引导AI生成内容的连续性提示语序列。通过将复 杂任务分解成多个可操作的子任务,确保生成的内容逻辑清晰、 主题连贯。从本质上看,提示语链是一种“元提示”(meta-prompt) 策略,它不仅告诉AI“做什么”,更重要的是指导AI“如何做”。 提示语链的设计和应用建立在多个理论基础之上,包括认知 心理学、信息处理理论、系统理论、创造性思维理论和元认0 码力 | 103 页 | 5.40 MB | 8 月前3
 Facebook -- TVM AWS Meetup Talkspace (~10 lines of Relay IR) - A few days of work - TVM sampling model running in 30us on single server CPU core - Beat hand-written, highly optimized baselines (https://github.com/mozilla/LPCNet) by0 码力 | 11 页 | 3.08 MB | 6 月前3
 Deploy VTA on Intel FPGAthe compiled TVM to the SDCard Step 7: Install kernel module cma.ko and run apps/vta_rpc/start_rpc_server.sh Step 8: Configure vta/config/de10nano_config.json to vta_config.json Step 9: Go to vta/hardware/intel0 码力 | 12 页 | 1.35 MB | 6 月前3
 TVM Meetup: QuantizationServices, Inc. or its Affiliates. All rights reserved. Evaluation • Intel Cascade Lake 12-core Server • TFLite Pre-quantized Hosted Models© 2019, Amazon Web Services, Inc. or its Affiliates. All rights0 码力 | 19 页 | 489.50 KB | 6 月前3
共 9 条
- 1
 













