Hadoop 迁移到阿里云MaxCompute 技术方案解决方案 8 实时消息采集:用于实时数据采集,可扩展、高吞吐、可靠的消息服务。如 Kafka。 流处理:对实时数据进行低延迟流式计算的服务。如 Flink、Spark Streaming、Storm 等。 机器学习:满足机器学习工作负载的服务。如当前流行的 Spark MLib/ML、Tensorflow 等。 分析型数据存储:对数据进行处理加工后,面向应用场景,将数据以结构化的方式进行存储, 机器学习平台 MaxCompute Spark 实时消息采集 Kafka Datahub 日志服务(LogHub 组件) 消息队列 Kafka 流处理 Spark Streaming Flink Storm 实时计算(原流计算) EMR(开源流计算组件) 分析型数据存储 数据仓库: GreenPlum/Impala/Presto/Hive NoSQL:Hbase 流式采集 Kafka Datahub,流式数据投递至 MaxCompute 日志服务,流式数据投递至 MaxCompute 流计算 Flink/Storm/Spark Streaming 不支持,需迁移至阿里云实时计算、EMR 流计算 组件或自建流计算服务 存储 HDFS/Hive 数据存储 MaxCompute Table,MaxCompute 不提供文件服0 码力 | 59 页 | 4.33 MB | 1 年前3
PlantUML 1.2020.23 Guía de Referencia del Lenguajebreak long messages, you can manually add in your text. Another option is to use maxMessageSize setting: @startuml skinparam maxMessageSize 50 participant a participant b a -> b :this\nis\nmanually\ndone User" as WU @WB 0 is idle +200 is Proc. +100 is Waiting @WU 0 is Waiting +500 is ok @enduml 9.7 Setting scale You can also set a specific scale. @startuml concise "Web User" as WU scale 100 as 50 pixels PlantUML (1.2020.23) 173 / 304 11.10 Word Wrap 11 MINDMAP 11.10 Word Wrap Using MaximumWidth setting you can control automatic word wrap. Unit used is pixel. @startmindmap













