数据格式
Apache Druid可以接收JSON、CSV或TSV等分隔格式或任何自定义格式的非规范化数据。尽管文档中的大多数示例使用JSON格式的数据,但将Druid配置为接收任何其他分隔数据并不困难。我们欢迎对新格式的任何贡献。
此页列出了Druid支持的所有默认和核心扩展数据格式。有关社区扩展支持的其他数据格式,请参阅我们的 社区扩展列表。
格式化数据
下面的示例显示了在Druid中原生支持的数据格式:
JSON
{"timestamp": "2013-08-31T01:02:33Z", "page": "Gypsy Danger", "language" : "en", "user" : "nuclear", "unpatrolled" : "true", "newPage" : "true", "robot": "false", "anonymous": "false", "namespace":"article", "continent":"North America", "country":"United States", "region":"Bay Area", "city":"San Francisco", "added": 57, "deleted": 200, "delta": -143}
{"timestamp": "2013-08-31T03:32:45Z", "page": "Striker Eureka", "language" : "en", "user" : "speed", "unpatrolled" : "false", "newPage" : "true", "robot": "true", "anonymous": "false", "namespace":"wikipedia", "continent":"Australia", "country":"Australia", "region":"Cantebury", "city":"Syndey", "added": 459, "deleted": 129, "delta": 330}
{"timestamp": "2013-08-31T07:11:21Z", "page": "Cherno Alpha", "language" : "ru", "user" : "masterYi", "unpatrolled" : "false", "newPage" : "true", "robot": "true", "anonymous": "false", "namespace":"article", "continent":"Asia", "country":"Russia", "region":"Oblast", "city":"Moscow", "added": 123, "deleted": 12, "delta": 111}
{"timestamp": "2013-08-31T11:58:39Z", "page": "Crimson Typhoon", "language" : "zh", "user" : "triplets", "unpatrolled" : "true", "newPage" : "false", "robot": "true", "anonymous": "false", "namespace":"wikipedia", "continent":"Asia", "country":"China", "region":"Shanxi", "city":"Taiyuan", "added": 905, "deleted": 5, "delta": 900}
{"timestamp": "2013-08-31T12:41:27Z", "page": "Coyote Tango", "language" : "ja", "user" : "cancer", "unpatrolled" : "true", "newPage" : "false", "robot": "true", "anonymous": "false", "namespace":"wikipedia", "continent":"Asia", "country":"Japan", "region":"Kanto", "city":"Tokyo", "added": 1, "deleted": 10, "delta": -9}
CSV
2013-08-31T01:02:33Z,"Gypsy Danger","en","nuclear","true","true","false","false","article","North America","United States","Bay Area","San Francisco",57,200,-143
2013-08-31T03:32:45Z,"Striker Eureka","en","speed","false","true","true","false","wikipedia","Australia","Australia","Cantebury","Syndey",459,129,330
2013-08-31T07:11:21Z,"Cherno Alpha","ru","masterYi","false","true","true","false","article","Asia","Russia","Oblast","Moscow",123,12,111
2013-08-31T11:58:39Z,"Crimson Typhoon","zh","triplets","true","false","true","false","wikipedia","Asia","China","Shanxi","Taiyuan",905,5,900
2013-08-31T12:41:27Z,"Coyote Tango","ja","cancer","true","false","true","false","wikipedia","Asia","Japan","Kanto","Tokyo",1,10,-9
TSV(Delimited)
2013-08-31T01:02:33Z "Gypsy Danger" "en" "nuclear" "true" "true" "false" "false" "article" "North America" "United States" "Bay Area" "San Francisco" 57 200 -143
2013-08-31T03:32:45Z "Striker Eureka" "en" "speed" "false" "true" "true" "false" "wikipedia" "Australia" "Australia" "Cantebury" "Syndey" 459 129 330
2013-08-31T07:11:21Z "Cherno Alpha" "ru" "masterYi" "false" "true" "true" "false" "article" "Asia" "Russia" "Oblast" "Moscow" 123 12 111
2013-08-31T11:58:39Z "Crimson Typhoon" "zh" "triplets" "true" "false" "true" "false" "wikipedia" "Asia" "China" "Shanxi" "Taiyuan" 905 5 900
2013-08-31T12:41:27Z "Coyote Tango" "ja" "cancer" "true" "false" "true" "false" "wikipedia" "Asia" "Japan" "Kanto" "Tokyo" 1 10 -9
请注意,CSV和TSV数据不包含列标题。当您指定要摄取的数据时,这一点就变得很重要。
除了文本格式,Druid还支持二进制格式,比如 Orc 和 Parquet 格式。
定制格式
Druid支持自定义数据格式,可以使用 Regex
解析器或 JavaScript
解析器来解析这些格式。请注意,使用这些解析器中的任何一个来解析数据都不如编写原生Java解析器或使用外部流处理器那样高效。我们欢迎新解析器的贡献。
InputFormat
[!WARNING] 输入格式是在0.17.0中引入的指定输入数据的数据格式的新方法。不幸的是,输入格式还不支持Druid支持的所有数据格式或摄取方法。特别是如果您想使用Hadoop接收,您仍然需要使用 解析器。如果您的数据是以本节未列出的某种格式格式化的,请考虑改用解析器。
所有形式的Druid摄取都需要某种形式的schema对象。要摄取的数据的格式是使用ioConfig
中的 inputFormat
条目指定的。
JSON
JSON
一个加载JSON格式数据的 inputFormat
示例:
"ioConfig": {
"inputFormat": {
"type": "json"
},
...
}
JSON inputFormat
有以下组件:
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
type | String | 填 json |
是 |
flattenSpec | JSON对象 | 指定嵌套JSON数据的展平配置。更多信息请参见flattenSpec | 否 |
featureSpec | JSON对象 | Jackson库支持的 JSON解析器特性 。这些特性将在解析输入JSON数据时应用。 | 否 |
CSV
一个加载CSV格式数据的 inputFormat
示例:
"ioConfig": {
"inputFormat": {
"type": "csv",
"columns" : ["timestamp","page","language","user","unpatrolled","newPage","robot","anonymous","namespace","continent","country","region","city","added","deleted","delta"]
},
...
}
CSV inputFormat
有以下组件:
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
type | String | 填 csv |
是 |
listDelimiter | String | 多值维度的定制分隔符 | 否(默认ctrl + A) |
columns | JSON数组 | 指定数据的列。列的顺序应该与数据列的顺序相同。 | 如果 findColumnsFromHeader 设置为 false 或者缺失, 则为必填项 |
findColumnsFromHeader | 布尔 | 如果设置了此选项,则任务将从标题行中查找列名。请注意,在从标题中查找列名之前,将首先使用 skipHeaderRows 。例如,如果将 skipHeaderRows 设置为2,将 findColumnsFromHeader 设置为 true ,则任务将跳过前两行,然后从第三行提取列信息。该项如果设置为true,则将忽略 columns |
否(如果 columns 被设置则默认为 false , 否则为null) |
skipHeaderRows | 整型数值 | 该项如果设置,任务将略过 skipHeaderRows 配置的行数 |
否(默认为0) |
TSV(Delimited)
"ioConfig": {
"inputFormat": {
"type": "tsv",
"columns" : ["timestamp","page","language","user","unpatrolled","newPage","robot","anonymous","namespace","continent","country","region","city","added","deleted","delta"],
"delimiter":"|"
},
...
}
TSV inputFormat
有以下组件:
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
type | String | 填 tsv |
是 |
delimiter | String | 数据值的自定义分隔符 | 否(默认为 \t ) |
listDelimiter | String | 多值维度的定制分隔符 | 否(默认ctrl + A) |
columns | JSON数组 | 指定数据的列。列的顺序应该与数据列的顺序相同。 | 如果 findColumnsFromHeader 设置为 false 或者缺失, 则为必填项 |
findColumnsFromHeader | 布尔 | 如果设置了此选项,则任务将从标题行中查找列名。请注意,在从标题中查找列名之前,将首先使用 skipHeaderRows 。例如,如果将 skipHeaderRows 设置为2,将 findColumnsFromHeader 设置为 true ,则任务将跳过前两行,然后从第三行提取列信息。该项如果设置为true,则将忽略 columns |
否(如果 columns 被设置则默认为 false , 否则为null) |
skipHeaderRows | 整型数值 | 该项如果设置,任务将略过 skipHeaderRows 配置的行数 |
否(默认为0) |
请确保将分隔符更改为适合于数据的分隔符。与CSV一样,您必须指定要索引的列和列的子集。
ORC
[!WARNING] 使用ORC输入格式之前,首先需要包含 druid-orc-extensions
[!WARNING] 如果您正在考虑从早于0.15.0的版本升级到0.15.0或更高版本,请仔细阅读 从contrib扩展的迁移。
一个加载ORC格式数据的 inputFormat
示例:
"ioConfig": {
"inputFormat": {
"type": "orc",
"flattenSpec": {
"useFieldDiscovery": true,
"fields": [
{
"type": "path",
"name": "nested",
"expr": "$.path.to.nested"
}
]
}
"binaryAsString": false
},
...
}
ORC inputFormat
有以下组件:
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
type | String | 填 orc |
是 |
flattenSpec | JSON对象 | 指定嵌套JSON数据的展平配置。更多信息请参见flattenSpec | 否 |
binaryAsString | 布尔类型 | 指定逻辑上未标记为字符串的二进制orc列是否应被视为UTF-8编码字符串。 | 否(默认为false) |
Parquet
[!WARNING] 使用Parquet输入格式之前,首先需要包含 druid-parquet-extensions
一个加载Parquet格式数据的 inputFormat
示例:
"ioConfig": {
"inputFormat": {
"type": "parquet",
"flattenSpec": {
"useFieldDiscovery": true,
"fields": [
{
"type": "path",
"name": "nested",
"expr": "$.path.to.nested"
}
]
}
"binaryAsString": false
},
...
}
Parquet inputFormat
有以下组件:
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
type | String | 填 parquet |
是 |
flattenSpec | JSON对象 | 定义一个 flattenSpec 从Parquet文件提取嵌套的值。注意,只支持"path"表达式('jq'不可用) | 否(默认自动发现根级别的属性) |
binaryAsString | 布尔类型 | 指定逻辑上未标记为字符串的二进制orc列是否应被视为UTF-8编码字符串。 | 否(默认为false) |
FlattenSpec
flattenSpec
位于 inputFormat
-> flattenSpec
中,负责将潜在的嵌套输入数据(如JSON、Avro等)和Druid的平面数据模型之间架起桥梁。 flattenSpec
示例如下:
"flattenSpec": {
"useFieldDiscovery": true,
"fields": [
{ "name": "baz", "type": "root" },
{ "name": "foo_bar", "type": "path", "expr": "$.foo.bar" },
{ "name": "first_food", "type": "jq", "expr": ".thing.food[1]" }
]
}
[!WARNING] 概念上,输入数据被读取后,Druid会以一个特定的顺序来对数据应用摄入规范: 首先
flattenSpec
(如果有),然后timestampSpec
, 然后transformSpec
,最后是dimensionsSpec
和metricsSpec
。在编写摄入规范时需要牢记这一点
展平操作仅仅支持嵌套的 数据格式, 包括:avro
, json
, orc
和 parquet
。
flattenSpec
有以下组件:
字段 | 描述 | 默认值 |
---|---|---|
useFieldDiscovery | 如果为true,则将所有根级字段解释为可用字段,供 timestampSpec 、transformSpec 、dimensionsSpec 和 metricsSpec 使用。如果为false,则只有显式指定的字段(请参阅 fields )才可供使用。 |
true |
fields | 指定感兴趣的字段及其访问方式, 详细请见下边 | [] |
字段展平规范
fields
列表中的每个条目都可以包含以下组件:
字段 | 描述 | 默认值 |
type |
可选项如下:
|
none(必填) |
name | 展平后的字段名称。这个名称可以被timestampSpec , transformSpec , dimensionsSpec 和metricsSpec 引用 |
none(必填) |
expr | 用于在展平时访问字段的表达式。对于类型 `path`,这应该是 JsonPath。对于 `jq` 类型,这应该是 jackson-jq 表达式。对于其他类型,将忽略此参数。 | none(对于 `path` 和 `jq` 类型的为必填) |
展平操作的注意事项
- 为了方便起见,在定义根级字段时,可以只将字段名定义为字符串,而不是JSON对象。例如
{"name": "baz", "type": "root"}
等价于baz
- 启用
useFieldDiscovery
只会在根级别自动检测与Druid支持的数据类型相对应的"简单"字段, 这包括字符串、数字和字符串或数字列表。不会自动检测到其他类型,其他类型必须在fields
列表中显式指定 - 不允许重复字段名(
name
), 否则将引发异常 - 如果启用
useFieldDiscovery
,则将跳过与字段列表中已定义的字段同名的任何已发现字段,而不是添加两次 - http://jsonpath.herokuapp.com/ 对于测试
path
-类型表达式非常有用 - jackson jq支持完整
jq
语法的一个子集。有关详细信息,请参阅 jackson jq 文档
Parser
[!WARNING] parser在 本地批任务, Kafka索引任务 和 Kinesis索引任务 中已经废弃,在这些类型的摄入方式中考虑使用 inputFormat
该部分列出来了所有默认的以及核心扩展中的解析器。对于社区的扩展解析器,请参见 社区扩展列表
String Parser
string
类型的解析器对基于文本的输入进行操作,这些输入可以通过换行符拆分为单独的记录, 可以使用 parseSpec
进一步分析每一行。
字段 | 类型 | 描述 | 是否必须 |
---|---|---|---|
type | string | 一般是 string , 在Hadoop索引任务中为 hadoopyString |
是 |
parseSpec | JSON对象 | 指定格式,数据的timestamp和dimensions | 是 |
Avro Hadoop Parser
[!WARNING] 需要添加 druid-avro-extensions 来使用 Avro Hadoop解析器
该解析器用于 Hadoop批摄取。在 ioConfig
中,inputSpec
中的 inputFormat
必须设置为 org.apache.druid.data.input.avro.AvroValueInputFormat
。您可能想在 tuningConfig
中的 jobProperties
选项设置Avro reader的schema, 例如:"avro.schema.input.value.path": "/path/to/your/schema.avsc"
或者 "avro.schema.input.value": "your_schema_JSON_object"
。如果未设置Avro读取器的schema,则将使用Avro对象容器文件中的schema,详情可以参见 avro规范
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
type | String | 应该填 avro_hadoop |
是 |
parseSpec | JSON对象 | 指定数据的时间戳和维度。应该是“avro”语法规范。 | 是 |
Avro parseSpec可以包含使用"root"或"path"字段类型的 flattenSpec,这些字段类型可用于读取嵌套的Avro记录。Avro当前不支持“jq”字段类型。
例如,使用带有自定义读取器schema文件的Avro Hadoop解析器:
{
"type" : "index_hadoop",
"spec" : {
"dataSchema" : {
"dataSource" : "",
"parser" : {
"type" : "avro_hadoop",
"parseSpec" : {
"format": "avro",
"timestampSpec": <standard timestampSpec>,
"dimensionsSpec": <standard dimensionsSpec>,
"flattenSpec": <optional>
}
}
},
"ioConfig" : {
"type" : "hadoop",
"inputSpec" : {
"type" : "static",
"inputFormat": "org.apache.druid.data.input.avro.AvroValueInputFormat",
"paths" : ""
}
},
"tuningConfig" : {
"jobProperties" : {
"avro.schema.input.value.path" : "/path/to/my/schema.avsc"
}
}
}
}
ORC Hadoop Parser
[!WARNING] 需要添加 druid-orc-extensions 来使用ORC Hadoop解析器
[!WARNING] 如果您正在考虑从早于0.15.0的版本升级到0.15.0或更高版本,请仔细阅读 从contrib扩展的迁移。
该解析器用于 Hadoop批摄取。在 ioConfig
中,inputSpec
中的 inputFormat
必须设置为 org.apache.orc.mapreduce.OrcInputFormat
。
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
type | String | 应该填 orc |
是 |
parseSpec | JSON对象 | 指定数据(timeAndDim 和 orc 格式)的时间戳和维度和一个flattenSpec (orc 格式) |
是 |
解析器支持两种 parseSpec
格式: orc
和 timeAndDims
orc
支持字段的自动发现和展平(如果指定了 flattenSpec。如果未指定展平规范,则默认情况下将启用 useFieldDiscovery
。如果启用了 useFieldDiscovery
,则指定dimensionSpec
是可选的:如果提供了 dimensionSpec
,则它定义的维度列表将是摄取维度的集合,如果缺少发现的字段将构成该列表。
timeAndDims
解析规范必须通过 dimensionSpec
指定哪些字段将提取为维度。
支持所有 列类型 ,但 union
类型除外。list
类型的列(如果用基本类型填充)可以用作多值维度,或者可以使用 flattenSpec 表达式提取特定元素。同样,可以用同样的方式从 map
和 struct
类型中提取基本字段。自动字段发现将自动为每个(非时间戳)基本类型或基本类型 list
以及 flattenSpec
中定义的任何展平表达式创建字符串维度。
Hadoop job属性
像大多数Hadoop作业,最佳结果是在 tuningConfig
中的 jobProperties
中添加 "mapreduce.job.user.classpath.first": "true"
或者 "mapreduce.job.classloader": "true"
。 注意,如果使用了 "mapreduce.job.classloader": "true"
, 需要设置 mapreduce.job.classloader.system.classes
包含 -org.apache.hadoop.hive.
来让Hadoop从应用jars包中加载 org.apache.hadoop.hive
而非从系统jar中,例如:
...
"mapreduce.job.classloader": "true",
"mapreduce.job.classloader.system.classes" : "java., javax.accessibility., javax.activation., javax.activity., javax.annotation., javax.annotation.processing., javax.crypto., javax.imageio., javax.jws., javax.lang.model., -javax.management.j2ee., javax.management., javax.naming., javax.net., javax.print., javax.rmi., javax.script., -javax.security.auth.message., javax.security.auth., javax.security.cert., javax.security.sasl., javax.sound., javax.sql., javax.swing., javax.tools., javax.transaction., -javax.xml.registry., -javax.xml.rpc., javax.xml., org.w3c.dom., org.xml.sax., org.apache.commons.logging., org.apache.log4j., -org.apache.hadoop.hbase., -org.apache.hadoop.hive., org.apache.hadoop., core-default.xml, hdfs-default.xml, mapred-default.xml, yarn-default.xml",
...
这是因为 orc-mapreduce
库的配置单元 hive-storage-api
依赖关系,它在 org.apache.hadoop.hive
包下提供了一些类。如果改为使用"mapreduce.job.user.classpath.first":"true"
设置,则不会出现此问题。
示例
orc
parser, orc
parseSpec, 自动字段发现, 展平表达式
{
"type": "index_hadoop",
"spec": {
"ioConfig": {
"type": "hadoop",
"inputSpec": {
"type": "static",
"inputFormat": "org.apache.orc.mapreduce.OrcInputFormat",
"paths": "path/to/file.orc"
},
...
},
"dataSchema": {
"dataSource": "example",
"parser": {
"type": "orc",
"parseSpec": {
"format": "orc",
"flattenSpec": {
"useFieldDiscovery": true,
"fields": [
{
"type": "path",
"name": "nestedDim",
"expr": "$.nestedData.dim1"
},
{
"type": "path",
"name": "listDimFirstItem",
"expr": "$.listDim[1]"
}
]
},
"timestampSpec": {
"column": "timestamp",
"format": "millis"
}
}
},
...
},
"tuningConfig": <hadoop-tuning-config>
}
}
}
orc
parser, orc
parseSpec, 不具有 flattenSpec
或者 dimensionSpec
的字段发现
{
"type": "index_hadoop",
"spec": {
"ioConfig": {
"type": "hadoop",
"inputSpec": {
"type": "static",
"inputFormat": "org.apache.orc.mapreduce.OrcInputFormat",
"paths": "path/to/file.orc"
},
...
},
"dataSchema": {
"dataSource": "example",
"parser": {
"type": "orc",
"parseSpec": {
"format": "orc",
"timestampSpec": {
"column": "timestamp",
"format": "millis"
}
}
},
...
},
"tuningConfig": <hadoop-tuning-config>
}
}
}
orc
parser, orc
parseSpec, 非自动发现
{
"type": "index_hadoop",
"spec": {
"ioConfig": {
"type": "hadoop",
"inputSpec": {
"type": "static",
"inputFormat": "org.apache.orc.mapreduce.OrcInputFormat",
"paths": "path/to/file.orc"
},
...
},
"dataSchema": {
"dataSource": "example",
"parser": {
"type": "orc",
"parseSpec": {
"format": "orc",
"flattenSpec": {
"useFieldDiscovery": false,
"fields": [
{
"type": "path",
"name": "nestedDim",
"expr": "$.nestedData.dim1"
},
{
"type": "path",
"name": "listDimFirstItem",
"expr": "$.listDim[1]"
}
]
},
"timestampSpec": {
"column": "timestamp",
"format": "millis"
},
"dimensionsSpec": {
"dimensions": [
"dim1",
"dim3",
"nestedDim",
"listDimFirstItem"
],
"dimensionExclusions": [],
"spatialDimensions": []
}
}
},
...
},
"tuningConfig": <hadoop-tuning-config>
}
}
}
orc
parser, timeAndDims
parseSpec
{
"type": "index_hadoop",
"spec": {
"ioConfig": {
"type": "hadoop",
"inputSpec": {
"type": "static",
"inputFormat": "org.apache.orc.mapreduce.OrcInputFormat",
"paths": "path/to/file.orc"
},
...
},
"dataSchema": {
"dataSource": "example",
"parser": {
"type": "orc",
"parseSpec": {
"format": "timeAndDims",
"timestampSpec": {
"column": "timestamp",
"format": "auto"
},
"dimensionsSpec": {
"dimensions": [
"dim1",
"dim2",
"dim3",
"listDim"
],
"dimensionExclusions": [],
"spatialDimensions": []
}
}
},
...
},
"tuningConfig": <hadoop-tuning-config>
}
}
Parquet Hadoop Parser
[!WARNING] 需要添加 druid-parquet-extensions 来使用Parquet Hadoop解析器
该解析器用于 Hadoop批摄取。在 ioConfig
中,inputSpec
中的 inputFormat
必须设置为 org.apache.druid.data.input.parquet.DruidParquetInputFormat
。
Parquet Hadoop 解析器支持自动字段发现,如果提供了一个带有 parquet
parquetSpec
的 flattenSpec
也支持展平。 Parquet嵌套 list 和 map 逻辑类型 应与所有受支持类型的JSON path表达式一起正确操作。
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
type | String | 应该填 parquet |
是 |
parseSpec | JSON对象 | 指定数据的时间戳和维度和一个可选的 flattenSpec 。有效的 parseSpec 格式是 timeAndDims 和 parquet |
是 |
binaryAsString | 布尔类型 | 指定逻辑上未标记为字符串的二进制orc列是否应被视为UTF-8编码字符串。 | 否(默认为false) |
当时间维度是一个 date类型的列, 则无需指定一个格式。 当格式为UTF8的String, 则要么指定为 auto
,或者显式的指定一个 时间格式。
Parquet Hadoop解析器 vs Parquet Avro Hadoop解析器 两者都是从Parquet文件中读取,但是又轻微的不同。主要不同之处是:
- Parquet Hadoop解析器使用简单的转换,而Parquet Avro Hadoop解析器首先使用
parquet-avro
库将Parquet数据转换为Avro记录,然后使用druid-avro-extensions
模块将Avro数据解析为druid - Parquet Hadoop解析器将Hadoop作业属性
parquet.avro.add-list-element-records
设置为false(通常默认为true),以便将原始列表元素"展开"为多值维度 - Parquet Hadoop解析器支持
int96
Parquet值,而 Parquet Avro Hadoop解析器不支持。flatteSpec
的JSON path表达式求值的行为也可能存在一些细微的差异
基于这些差异,我们建议在Parquet avro hadoop解析器上使用Parquet Hadoop解析器,以允许摄取超出Avro转换模式约束的数据。然而,Parquet Avro Hadoop解析器是支持Parquet格式的原始基础,因此它更加成熟。
示例
parquet
parser, parquet
parseSpec
{
"type": "index_hadoop",
"spec": {
"ioConfig": {
"type": "hadoop",
"inputSpec": {
"type": "static",
"inputFormat": "org.apache.druid.data.input.parquet.DruidParquetInputFormat",
"paths": "path/to/file.parquet"
},
...
},
"dataSchema": {
"dataSource": "example",
"parser": {
"type": "parquet",
"parseSpec": {
"format": "parquet",
"flattenSpec": {
"useFieldDiscovery": true,
"fields": [
{
"type": "path",
"name": "nestedDim",
"expr": "$.nestedData.dim1"
},
{
"type": "path",
"name": "listDimFirstItem",
"expr": "$.listDim[1]"
}
]
},
"timestampSpec": {
"column": "timestamp",
"format": "auto"
},
"dimensionsSpec": {
"dimensions": [],
"dimensionExclusions": [],
"spatialDimensions": []
}
}
},
...
},
"tuningConfig": <hadoop-tuning-config>
}
}
}
parquet
parser, timeAndDims
parseSpec
{
"type": "index_hadoop",
"spec": {
"ioConfig": {
"type": "hadoop",
"inputSpec": {
"type": "static",
"inputFormat": "org.apache.druid.data.input.parquet.DruidParquetInputFormat",
"paths": "path/to/file.parquet"
},
...
},
"dataSchema": {
"dataSource": "example",
"parser": {
"type": "parquet",
"parseSpec": {
"format": "timeAndDims",
"timestampSpec": {
"column": "timestamp",
"format": "auto"
},
"dimensionsSpec": {
"dimensions": [
"dim1",
"dim2",
"dim3",
"listDim"
],
"dimensionExclusions": [],
"spatialDimensions": []
}
}
},
...
},
"tuningConfig": <hadoop-tuning-config>
}
}
Parquet Avro Hadoop Parser
[!WARNING] 考虑在该解析器之上使用 Parquet Hadoop Parser 来摄取Parquet文件。 两者之间的不同之处参见 Parquet Hadoop解析器 vs Parquet Avro Hadoop解析器 部分
[!WARNING] 使用Parquet Avro Hadoop Parser需要同时加入 druid-parquet-extensions 和 druid-avro-extensions
该解析器用于 Hadoop批摄取, 该解析器首先将Parquet数据转换为Avro记录,然后再解析它们后摄入到Druid。在 ioConfig
中,inputSpec
中的 inputFormat
必须设置为 org.apache.druid.data.input.parquet.DruidParquetAvroInputFormat
。
Parquet Avro Hadoop 解析器支持自动字段发现,如果提供了一个带有 avro
parquetSpec
的 flattenSpec
也支持展平。 Parquet嵌套 list 和 map 逻辑类型 应与所有受支持类型的JSON path表达式一起正确操作。该解析器将Hadoop作业属性 parquet.avro.add-list-element-records
设置为false(通常默认为true),以便将原始列表元素"展开"为多值维度。
注意,int96
Parquet值类型在该解析器中是不支持的。
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
type | String | 应该填 parquet-avro |
是 |
parseSpec | JSON对象 | 指定数据的时间戳和维度和一个可选的 flattenSpec , 应该是 avro |
是 |
binaryAsString | 布尔类型 | 指定逻辑上未标记为字符串的二进制orc列是否应被视为UTF-8编码字符串。 | 否(默认为false) |
当时间维度是一个 date类型的列, 则无需指定一个格式。 当格式为UTF8的String, 则要么指定为 auto
,或者显式的指定一个 时间格式。
示例
{
"type": "index_hadoop",
"spec": {
"ioConfig": {
"type": "hadoop",
"inputSpec": {
"type": "static",
"inputFormat": "org.apache.druid.data.input.parquet.DruidParquetAvroInputFormat",
"paths": "path/to/file.parquet"
},
...
},
"dataSchema": {
"dataSource": "example",
"parser": {
"type": "parquet-avro",
"parseSpec": {
"format": "avro",
"flattenSpec": {
"useFieldDiscovery": true,
"fields": [
{
"type": "path",
"name": "nestedDim",
"expr": "$.nestedData.dim1"
},
{
"type": "path",
"name": "listDimFirstItem",
"expr": "$.listDim[1]"
}
]
},
"timestampSpec": {
"column": "timestamp",
"format": "auto"
},
"dimensionsSpec": {
"dimensions": [],
"dimensionExclusions": [],
"spatialDimensions": []
}
}
},
...
},
"tuningConfig": <hadoop-tuning-config>
}
}
}
Avro Stream Parser
[!WARNING] 需要添加 druid-avro-extensions 来使用Avro Stream解析器
该解析器用于 流式摄取, 直接从一个流来读取数据。
字段 | 类型 | 描述 | 是否必须 |
---|---|---|---|
type | String | avro_stream |
否 |
avroBytesDecoder | JSON对象 | 指定如何对Avro记录进行解码 | 是 |
parseSpec | JSON对象 | 指定数据的时间戳和维度。 应该是一个 avro parseSpec |
是 |
Avro parseSpec包含一个使用"root"或者"path"类型的 flattenSpec
, 以便可以用来读取嵌套的avro数据。 "jq"类型在Avro中目前还不支持。
以下示例展示了一个具有schema repoavro解码器的 Avro stream parser
:
"parser" : {
"type" : "avro_stream",
"avroBytesDecoder" : {
"type" : "schema_repo",
"subjectAndIdConverter" : {
"type" : "avro_1124",
"topic" : "${YOUR_TOPIC}"
},
"schemaRepository" : {
"type" : "avro_1124_rest_client",
"url" : "${YOUR_SCHEMA_REPO_END_POINT}",
}
},
"parseSpec" : {
"format": "avro",
"timestampSpec": <standard timestampSpec>,
"dimensionsSpec": <standard dimensionsSpec>,
"flattenSpec": <optional>
}
}
Avro Bytes Decoder
如果 type
未被指定, avroBytesDecoder
默认使用 schema_repo
。
基于Avro Bytes Decoder的 inline schema
[!WARNING] "schema_inline"解码器使用固定schema读取Avro记录,不支持schema迁移。如果将来可能需要迁移schema,请考虑其他解码器之一,所有解码器都使用一个消息头,该消息头允许解析器识别正确的Avro schema以读取记录。
如果可以使用同一schema读取所有输入事件,则可以使用此解码器。在这种情况下,在输入任务JSON本身中指定schema,如下所述:
...
"avroBytesDecoder": {
"type": "schema_inline",
"schema": {
//your schema goes here, for example
"namespace": "org.apache.druid.data",
"name": "User",
"type": "record",
"fields": [
{ "name": "FullName", "type": "string" },
{ "name": "Country", "type": "string" }
]
}
}
...
基于Avro Bytes Decoder的 multiple inline schemas
如果不同的输入事件可以有不同的读取schema,请使用此解码器。在这种情况下,在输入任务JSON本身中指定schema,如下所述:
...
"avroBytesDecoder": {
"type": "multiple_schemas_inline",
"schemas": {
//your id -> schema map goes here, for example
"1": {
"namespace": "org.apache.druid.data",
"name": "User",
"type": "record",
"fields": [
{ "name": "FullName", "type": "string" },
{ "name": "Country", "type": "string" }
]
},
"2": {
"namespace": "org.apache.druid.otherdata",
"name": "UserIdentity",
"type": "record",
"fields": [
{ "name": "Name", "type": "string" },
{ "name": "Location", "type": "string" }
]
},
...
...
}
}
...
注意,它本质上是一个整数Schema ID到avro schema对象的映射。此解析器假定记录具有以下格式。第一个1字节是版本,必须始终为1, 接下来的4个字节是使用大端字节顺序序列化的整数模式ID。其余字节包含序列化的avro消息。
基于Avro Bytes Decoder的 SchemaRepo
Avro Bytes Decorder首先提取输入消息的 subject
和 id
, 然后使用她们去查找用来解码Avro记录的Avro schema,详情可以参见 Schema repo 和 AVRO-1124 。 您需要一个类似schema repo的http服务来保存avro模式。有关在消息生成器端注册架构的信息,请见 org.apache.druid.data.input.AvroStreamInputRowParserTest#testParse()
字段 | 类型 | 描述 | 是否必须 |
---|---|---|---|
type | String | schema_repo |
否 |
subjectAndIdConverter | JSON对象 | 指定如何从消息字节中提取subject和id | 是 |
schemaRepository | JSON对象 | 指定如何从subject和id查找Avro Schema | 是 |
Avro-1124 Subject 和 Id 转换器
这部分描述了 schema_avro
avro 字节解码器中的 subjectAndIdConverter
的格式
字段 | 类型 | 描述 | 是否必须 |
---|---|---|---|
type | String | avro_1124 |
否 |
topic | String | 指定Kafka流的主题 | 是 |
Avro-1124 Schema Repository
这部分描述了 schema_avro
avro 字节解码器中的 schemaRepository
的格式
字段 | 类型 | 描述 | 是否必须 |
---|---|---|---|
type | String | avro_1124_rest_client |
否 |
url | String | 指定Avro-1124 schema repository的http url | 是 |
Confluent Schema Registry-based Avro Bytes Decoder
这个Avro字节解码器首先从输入消息字节中提取一个唯一的id,然后使用它在用于从字节解码Avro记录的模式注册表中查找模式。有关详细信息,请参阅schema注册 文档 和 存储库。
字段 | 类型 | 描述 | 是否必须 |
---|---|---|---|
type | String | schema_registry |
否 |
url | String | 指定架构注册表的url | 是 |
capacity | 整型数字 | 指定缓存的最大值(默认为 Integer.MAX_VALUE) | 否 |
...
"avroBytesDecoder" : {
"type" : "schema_registry",
"url" : <schema-registry-url>
}
...
Protobuf Parser
[!WARNING] 需要添加 druid-protobuf-extensions 来使用Protobuf解析器
此解析器用于 流接收,并直接从流中读取协议缓冲区数据。
字段 | 类型 | 描述 | 是否必须 |
---|---|---|---|
type | String | protobuf |
是 |
descriptor | String | 类路径或URL中的Protobuf描述符文件名 | 是 |
protoMessageType | String | 描述符中的Protobuf消息类型。可接受短名称和全限定名称。如果未指定,解析器将使用描述符中找到的第一个消息类型 | 否 |
parseSpec | JSON对象 | 指定数据的时间戳和维度。格式必须为JSON。有关更多配置选项,请参阅 JSON ParseSpec。请注意,不再支持timeAndDims parseSpec | 是 |
样例规范:
"parser": {
"type": "protobuf",
"descriptor": "file:///tmp/metrics.desc",
"protoMessageType": "Metrics",
"parseSpec": {
"format": "json",
"timestampSpec": {
"column": "timestamp",
"format": "auto"
},
"dimensionsSpec": {
"dimensions": [
"unit",
"http_method",
"http_code",
"page",
"metricType",
"server"
],
"dimensionExclusions": [
"timestamp",
"value"
]
}
}
}
有关更多详细信息和示例,请参见 扩展说明。
ParseSpec
[!WARNING] Parser 在 本地批任务, kafka索引任务 和Kinesis索引任务 中已经废弃,在这些类型的摄入中考虑使用 inputFormat
parseSpec
有两个目的:
- String解析器使用
parseSpec
来决定输入行的格式(例如: JSON,CSV,TSV) - 所有的解析器使用
parseSpec
来决定输入行的timestamp和dimensions
如果 format
没有被包含,parseSpec
默认为 tsv
JSON解析规范
与字符串解析器一起用于加载JSON。
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
format | String | json |
否 |
timestampSpec | JSON对象 | 指定timestamp的列和格式 | 是 |
dimensionsSpec | JSON对象 | 指定数据的dimensions | 是 |
flattenSpec | JSON对象 | 指定嵌套的JSON数据的展平配置,详情可见 flattenSpec | 否 |
示例规范:
"parseSpec": {
"format" : "json",
"timestampSpec" : {
"column" : "timestamp"
},
"dimensionSpec" : {
"dimensions" : ["page","language","user","unpatrolled","newPage","robot","anonymous","namespace","continent","country","region","city"]
}
}
JSON Lowercase解析规范
[!WARNING]
JsonLowerCase
解析器已经废弃,并可能在Druid将来的版本中移除
这是JSON ParseSpec的一个特殊变体,它将传入JSON数据中的所有列名小写。如果您正在从Druid 0.6.x更新到druid0.7.x,正在直接接收具有混合大小写列名的JSON,没有任何ETL来将这些列名转换大小写,并且希望进行包含使用0.6.x和0.7.x创建的数据的查询,则需要此parseSpec。
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
format | String | jsonLowerCase |
是 |
timestampSpec | JSON对象 | 指定timestamp的列和格式 | 是 |
dimensionsSpec | JSON对象 | 指定数据的dimensions | 是 |
CSV解析规范
与字符串解析器一起用于加载CSV, 字符串通过使用 com.opencsv
库来进行解析。
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
format | String | csv |
是 |
timestampSpec | JSON对象 | 指定timestamp的列和格式 | 是 |
dimensionsSpec | JSON对象 | 指定数据的dimensions | 是 |
listDelimiter | String | 多值维度的定制分隔符 | 否(默认为 ctrl + A ) |
columns | JSON数组 | 指定数据的列 | 是 |
示例规范:
"parseSpec": {
"format" : "csv",
"timestampSpec" : {
"column" : "timestamp"
},
"columns" : ["timestamp","page","language","user","unpatrolled","newPage","robot","anonymous","namespace","continent","country","region","city","added","deleted","delta"],
"dimensionsSpec" : {
"dimensions" : ["page","language","user","unpatrolled","newPage","robot","anonymous","namespace","continent","country","region","city"]
}
}
CSV索引任务
如果输入文件包含头,则 columns
字段是可选的,不需要设置。相反,您可以将 hasHeaderRow
字段设置为 true
,这将使Druid自动从标题中提取列信息。否则,必须设置 columns
字段,并确保该字段必须以相同的顺序与输入数据的列匹配。
另外,可以通过在parseSpec中设置 skipHeaderRows
跳过一些标题行。如果同时设置了 skipHeaderRows
和 HashHeaderRow
选项,则首先应用skipHeaderRows
。例如,如果将 skipHeaderRows
设置为2,hasHeaderRow
设置为true,Druid将跳过前两行,然后从第三行提取列信息。
请注意,hasHeaderRow
和 skipHeaderRows
仅对非Hadoop批索引任务有效。其他类型的索引任务将失败,并出现异常。
其他CSV摄入任务
必须包含 columns
字段,并确保字段的顺序与输入数据的列以相同的顺序匹配。
TSV/Delimited解析规范
与字符串解析器一起使用此命令可加载不需要特殊转义的任何分隔文本。默认情况下,分隔符是一个制表符,因此这将加载TSV。
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
format | String | csv |
是 |
timestampSpec | JSON对象 | 指定timestamp的列和格式 | 是 |
dimensionsSpec | JSON对象 | 指定数据的dimensions | 是 |
delimiter | String | 数据值的定制分隔符 | 否(默认为 \t ) |
listDelimiter | String | 多值维度的定制分隔符 | 否(默认为 ctrl + A ) |
columns | JSON数组 | 指定数据的列 | 是 |
示例规范:
"parseSpec": {
"format" : "tsv",
"timestampSpec" : {
"column" : "timestamp"
},
"columns" : ["timestamp","page","language","user","unpatrolled","newPage","robot","anonymous","namespace","continent","country","region","city","added","deleted","delta"],
"delimiter":"|",
"dimensionsSpec" : {
"dimensions" : ["page","language","user","unpatrolled","newPage","robot","anonymous","namespace","continent","country","region","city"]
}
}
请确保将 delimiter
更改为数据的适当分隔符。与CSV一样,您必须指定要索引的列和列的子集。
TSV(Delimited)索引任务
如果输入文件包含头,则 columns
字段是可选的,不需要设置。相反,您可以将 hasHeaderRow
字段设置为 true
,这将使Druid自动从标题中提取列信息。否则,必须设置 columns
字段,并确保该字段必须以相同的顺序与输入数据的列匹配。
另外,可以通过在parseSpec中设置 skipHeaderRows
跳过一些标题行。如果同时设置了 skipHeaderRows
和 HashHeaderRow
选项,则首先应用skipHeaderRows
。例如,如果将 skipHeaderRows
设置为2,hasHeaderRow
设置为true,Druid将跳过前两行,然后从第三行提取列信息。
请注意,hasHeaderRow
和 skipHeaderRows
仅对非Hadoop批索引任务有效。其他类型的索引任务将失败,并出现异常。
其他TSV(Delimited)摄入任务
必须包含 columns
字段,并确保字段的顺序与输入数据的列以相同的顺序匹配。
多值维度
对于TSV和CSV数据,维度可以有多个值。要为多值维度指定分隔符,请在parseSpec
中设置 listDelimiter
。
JSON数据也可以包含多值维度。维度的多个值必须在接收的数据中格式化为 JSON数组
,不需要额外的 parseSpec
配置。
正则解析规范
"parseSpec":{
"format" : "regex",
"timestampSpec" : {
"column" : "timestamp"
},
"dimensionsSpec" : {
"dimensions" : [<your_list_of_dimensions>]
},
"columns" : [<your_columns_here>],
"pattern" : <regex pattern for partitioning data>
}
columns
字段必须以相同的顺序与regex匹配组的列匹配。如果未提供列,则默认列名称(“column_1”、“column2”、…”列“)将被分配, 确保列名包含所有维度
JavaScript解析规范
"parseSpec":{
"format" : "javascript",
"timestampSpec" : {
"column" : "timestamp"
},
"dimensionsSpec" : {
"dimensions" : ["page","language","user","unpatrolled","newPage","robot","anonymous","namespace","continent","country","region","city"]
},
"function" : "function(str) { var parts = str.split(\"-\"); return { one: parts[0], two: parts[1] } }"
}
注意: JavaScript解析器必须完全解析数据,并在JS逻辑中以 {key:value}
格式返回。这意味着任何展平或解析多维值都必须在这里完成。
[!WARNING] 默认情况下禁用基于JavaScript的功能。有关使用Druid的JavaScript功能的指南,包括如何启用它的说明,请参阅 Druid JavaScript编程指南。
时间和维度解析规范
与非字符串解析器一起使用,为它们提供时间戳和维度信息。非字符串解析器独立处理所有格式化决策,而不使用ParseSpec。
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
format | String | timeAndDims |
是 |
timestampSpec | JSON对象 | 指定timestamp的列和格式 | 是 |
dimensionsSpec | JSON对象 | 指定数据的dimensions | 是 |
Orc解析规范
与Hadoop ORC解析器一起使用来加载ORC文件
字段 | 类型 | 描述 | 是否必填 |
---|---|---|---|
format | String | orc |
否 |
timestampSpec | JSON对象 | 指定timestamp的列和格式 | 是 |
dimensionsSpec | JSON对象 | 指定数据的dimensions | 是 |
flattenSpec | JSON对象 | 指定嵌套的JSON数据的展平配置,详情可见 flattenSpec | 否 |
Parquet解析规范
与Hadoop Parquet解析器一起使用来加载Parquet文件
字段 | 类型 | 描述 | 是否必填 | |
---|---|---|---|---|
format | String | parquet |
否 | |
timestampSpec | JSON对象 | 指定timestamp的列和格式 | 是 | |
dimensionsSpec | JSON对象 | 指定数据的dimensions | 是 | |
flattenSpec | JSON对象 | 指定嵌套的JSON数据的展平配置,详情可见 flattenSpec | 否 |