Apache Superset连接

Apache Superset是一款数据探索和可视化分析的开源BI工具。Apache Superset基于Python开发,使用了Flask、Pandas、SQLAlchemy等组件。您可以使用Apache Superset制作可视化、交互式的协作文档。本文为您介绍Apache Superset如何连接 ...

Apache Zeppelin连接

Apache Zeppelin是一款基于Web的Notebook产品,能够进行交互式数据分析。使用Zeppelin,您可以使用丰富的预构建语言后端(或解释器)制作交互式的协作文档,例如Scala、Python、SparkSQL、Hive等。本文为您介绍Apache Zeppelin如何连接 ...

内核发布记录

4.0 说明 云数据库 SelectDB 版 内核4.0版本是基于 Apache Doris 2.1 和 Apache Doris 3.0 开发的。更多详情,请参见:Apache Doris 2.1 Apache Doris 3.0 内核版本4.0目前处于灰度邀请测试阶段。您可通过以下两种方式,使用此功能。新建...

基于CentOS系统镜像快速部署Apache服务

您可以通过已配置的自定义镜像创建更多包含相同配置的轻量应用服务器。更多信息,请参见 自定义镜像概述。套餐配置 60元/月 您可以根据业务需求选择适配的套餐,超出套餐外的公网出流量会产生额外费用。关于计费的更多信息,请参见 计费...

数据服务集群

DataServing是便宜云服务器E-MapReduce提供的基于Apache HBase的数据服务集群类型。本文为您介绍数据服务集群支持的特性,适用场景以及技术架构。特性介绍 Apache HBase是具有高可靠性、高性能、列存储、可伸缩、实时读写的开源NoSQL分布式系统。...

JAR作业开发

开发准备 本样例涉及关于数据源连接器如何使用,请准备相关数据源。说明 实时计算Flink版默认不具备访问公网的能力,所以本案例采用的数据源为便宜云服务器消息队列Kafka(2.6.2)和便宜云服务器RDS MySQL(8.0)。如您已经购买了上述产品,请确保其...

SSL接入点PLAIN机制收发消息

Licensed to the Apache Software Foundation(ASF)under one or more#contributor license agreements.See the NOTICE file distributed with#this work for additional information regarding copyright ownership.#The ASF licenses this...

搭建环境

export M2_HOME=${path_to_maven_dir}/apache-maven-3.6.1 export PATH=${path_to_maven_dir}/apache-maven-3.6.1/bin:$PATH 在新的 Shell 终端中检查 Maven 是否安装成功:$mvn-v 更多信息,请参考 Apache Maven 官方文档。修改 Maven ...

基础使用

本文通过示例为您介绍如何在已经创建的E-MapReduce(简称EMR)集群中使用Iceberg。背景信息 本文以数据湖元数据为例,详细配置请参见 数据湖元数据配置。前提条件 已在E-MapReduce控制台上,创建Hadoop的EMR-5.3.0及后续版本的集群,详情...

步骤三:调用SDK收发消息

dependency groupId org.apache.rocketmq/groupId artifactId rocketmq-client-java/artifactId version 5.0.7/version/dependency 重要 如果您使用的实例类型为Serverless,在公网访问的时候需要注意SDK的版本等信息,详情请参见 ...

普通消息

import org.apache.rocketmq.client.apis.producer.SendReceipt;public class ProducerExample { public static void main(String[]args)throws ClientException {/*实例接入点,从控制台实例详情页的接入点页签中获取。如果是在便宜云服务器ECS...

全托管Flink DataStream作业

解决方法:pom.xml文件中没有引入相关依赖,大多数情况下可能是flink-connector-base,也可以搜索异常包路径,查看其属于哪个Flink依赖。可能是运行时没有加载provided依赖。需要在IntelliJ IDEA的“Modify options”处勾选“Add ...

Spark批式读写Iceberg

dependency groupId org.apache.spark/groupId artifactId spark-core_2.12/artifactId version 3.1.1/version scope provided/scope/dependency dependency groupId org.apache.spark/groupId artifactId spark-sql_2.12/artifactId ...

默认接入点收发消息

dependency groupId org.apache.kafka/groupId artifactId kafka-clients/artifactId version 2.4.0/version/dependency dependency groupId org.slf4j/groupId artifactId slf4j-log4j12/artifactId version 1.7.6/version/dependency ...

一键更新镜像和执行脚本

说明 在创建自定义镜像前,您可以根据需要配置创建的ECS实例Instance-ForCustomImage,例如部署应用、拷贝数据等,减少统一更新镜像后的维护操作。准备更新用的自定义镜像。找到ECS实例Instance-ForCustomImage,在 操作 列下,单击 云盘...

在ECI中访问HDFS数据

Apache Hadoop下载地址请参见 Hadoop下载,建议选用的Apache Hadoop版本不低于2.7.2,本文档中使用的Apache Hadoop版本为Apache Hadoop 2.7.2。解压Apache Hadoop压缩包到指定文件夹。tar-zxvf hadoop-2.7.2.tar.gz-C/usr/local/修改core-...

定时/延时消息

指定需要订阅哪个目标Topic,Topic需要提前在控制台创建,如果不创建直接使用会返回报错。String topic="Your Topic;为消费者指定所属的消费者分组,Group需要提前在控制台创建,如果不创建直接使用会返回报错。String consumerGroup="Your...

使用实例接入点收发消息

dependency groupId org.apache.kafka/groupId artifactId kafka-clients/artifactId version 2.4.0/version/dependency dependency groupId org.slf4j/groupId artifactId slf4j-log4j12/artifactId version 1.7.6/version/dependency ...

Pig作业配置

Licensed to the Apache Software Foundation(ASF)under one*or more contributor license agreements.See the NOTICE file*distributed with this work for additional information*regarding copyright ownership.The ASF licenses this ...

顺序消息

指定需要订阅哪个目标Topic,Topic需要提前在控制台创建,如果不创建直接使用会返回报错。String topic="Your Topic;为消费者指定所属的消费者分组,Group需要提前在控制台创建,如果不创建直接使用会返回报错。String consumerGroup="Your...

Doris概述

Apache Doris是一个高性能、实时的分析型数据库,能够较的满足报表分析、即席查询、数据湖联邦查询加速等使用场景。本文为您介绍Apache Doris。背景信息 关于更多Apache Doris信息,详情请参见 Doris介绍。使用场景 数据源经过各种数据...

在ECI中访问OSS数据

使用Hadoop、Spark等运行批处理作业时,可以选择对象存储OSS作为存储...OSS配置-property name fs.oss.impl/name value org.apache.hadoop.fs.aliyun.oss.AliyunOSSFileSystem/value/property property name fs.oss.endpoint/name value oss-...

EMR Serverless Spark与其他VPC间网络互通

前提条件 已准备数据源。本文以在EMR on ECS页面创建包含Hive服务,元数据 为 内置MySQL 的DataLake集群为例,详情请参见 创建集群。使用限制 当前仅支持创建一个网络连接。当前仅支持使用下列可用区的交换机。中国地区 地域名称 地域ID ...

通过Kafka导入数据

背景信息 Kafka Connect是一款在Apache Kafka和其他系统之间进行可靠数据传输的工具,可通过定义Connectors来将大量数据迁入或者迁出Kafka。Doris社区提供的Kafka连接器,运行在Kafka Connect集群中,支持从Kafka Topic中读取数据,并将...

Redis

重要 云原生数据湖分析(DLA)产品已退市,云原生数据仓库 AnalyticDB MySQL 版 湖仓版支持DLA已有功能,并提供更多的功能和更的性能。AnalyticDB for MySQL 相关使用文档,请参见 访问Redis数据源。前提条件 已经开通对象存储OSS...

Tez

Tez是Apache构建在Hadoop之上的支持分布式DAG(Directed Acyclic Graph)的计算框架,支持通过复杂的DAG描述并处理大数据任务。背景信息 Tez主要使用在Apache Hive中,作为Hive的一种运行时引擎,可以优化Hive SQL的查询引擎。与Hive On MR...

通过ES-Hadoop将HDFS中的数据写入Elasticsearch

重要 在生产环境中,建议关闭自动创建索引功能,提前创建索引和Mapping。由于本文仅用于测试,因此开启了自动创建索引功能。创建与Elasticsearch实例在同一专有网络下的EMR实例。实例配置如下:产品版本:EMR-3.29.0 必选服务:HDFS(2.8....

配置作业日志输出

stderr.file}.%i"Layout pattern="%m"type="PatternLayout"charset="UTF-8"/Policies SizeBasedTriggeringPolicy size="1 GB"/Policies DefaultRolloverStrategy max="2"/Appender/Appenders Loggers Logger level="INFO"name="org.apache....

创建EMR MR节点

因为EMR-MR用的是2.8.5-/dependency dependency groupId org.apache.hadoop/groupId artifactId hadoop-common/artifactId version 2.8.5/version/dependency 在MapReduce中读写OSS文件,需要配置如下参数。重要 风险提示:便宜云服务器账号...

Airflow调度DLA Spark作业

重要 云原生数据湖分析(DLA)产品已退市,云原生数据仓库 AnalyticDB MySQL 版 湖仓版支持DLA已有功能,并提供更多的功能和更的性能。AnalyticDB for MySQL 相关使用文档,请参见 Airflow调度Spark。准备工作 安装Airflow服务。安装...

在文件存储 HDFS 版上使用Apache Tez

本文主要介绍在挂载 文件存储 HDFS 版 的Hadoop集群上安装及使用Apache Tez。前提条件 已开通 文件存储 HDFS 版 服务并创建文件系统实例和挂载点。具体操作,请参见 文件存储HDFS版快速入门。已为Hadoop集群所有节点安装JDK,且JDK版本不...

Java SDK日志库相关问题

表格存储Java SDK使用的是哪个日志库?表格存储 Java SDK 依赖的是 slf4j,在依赖中默认依赖了 log4j2 作为日志实现库。如何替换日志库?您只需要在 Java SDK 的依赖中把 log4j2 的依赖声明移除即可,slf4j 就会自动在您的应用中寻找依赖的...

使用JindoFS SDK免密功能

在弹窗中,选择创建的实例RAM角色,单击 确定 完成授予。步骤四:在ECS上设置环境变量 执行如下命令,在ECS上设置环境变量。export CLASSPATH=xx/xx/jindofs-2.5.0-sdk.jar 或者执行如下命令。HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/xx/xx...

使用JindoFS SDK免密功能

在弹窗中,选择创建的实例RAM角色,单击 确定 完成授予。步骤四:在ECS上设置环境变量 执行如下命令,在ECS上设置环境变量。export CLASSPATH=xx/xx/jindofs-2.5.0-sdk.jar 或者执行如下命令。HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/xx/xx...

使用JindoFS SDK免密功能

在弹窗中,选择创建的实例RAM角色,单击 确定 完成授予。步骤四:在ECS上设置环境变量 执行如下命令,在ECS上设置环境变量。export CLASSPATH=xx/xx/jindofs-2.5.0-sdk.jar 或者执行如下命令。HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/xx/xx...

使用JindoFS SDK免密功能

在弹窗中,选择创建的实例RAM角色,单击 确定 完成授予。步骤四:在ECS上设置环境变量 执行如下命令,在ECS上设置环境变量。export CLASSPATH=xx/xx/jindofs-2.5.0-sdk.jar 或者执行如下命令。HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/xx/xx...

使用JindoFS SDK免密功能

在弹窗中,选择创建的实例RAM角色,单击 确定 完成授予。步骤四:在ECS上设置环境变量 执行如下命令,在ECS上设置环境变量。export CLASSPATH=xx/xx/jindofs-2.5.0-sdk.jar 或者执行如下命令。HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/xx/xx...

使用JindoFS SDK免密功能

在弹窗中,选择创建的实例RAM角色,单击 确定 完成授予。步骤四:在ECS上设置环境变量 执行如下命令,在ECS上设置环境变量。export CLASSPATH=xx/xx/jindofs-2.5.0-sdk.jar 或者执行如下命令。HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/xx/xx...

使用JindoFS SDK免密功能

在弹窗中,选择创建的实例RAM角色,单击 确定 完成授予。步骤四:在ECS上设置环境变量 执行如下命令,在ECS上设置环境变量。export CLASSPATH=xx/xx/jindofs-2.5.0-sdk.jar 或者执行如下命令。HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/xx/xx...

使用JindoFS SDK免密功能

在弹窗中,选择创建的实例RAM角色,单击 确定 完成授予。步骤四:在ECS上设置环境变量 执行如下命令,在ECS上设置环境变量。export CLASSPATH=xx/xx/jindofs-2.5.0-sdk.jar 或者执行如下命令。HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/xx/xx...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云消息队列 Kafka 版 实时计算 Flink版 云数据库 RDS 企业级分布式应用服务 人工智能平台 PAI 弹性公网IP
新人特惠 爆款特惠 最新活动 免费试用


http://www.vxiaotou.com