using spark-avro to write dataframe creates topLevelRecord - want to use existing schema(使用Spark-avro写入数据帧创建topLevelRecord-要使用现有架构)
问题描述
我正在使用Kryo编码器将GenericRecords编码为Spark DataFrame,并将该数据帧写入Avro文件。一旦我尝试从配置单元中读取文件,我就得到一个错误,说解析器找到的是toplevelRecords而不是预期的字段。这条记录不在我现有的模式中,我认为它是在我使用Spark-Avro编写时创建的。我想知道是否/如何从Avro文件中删除它。
如下所示:
{
"type":"record",
"name":"topLevelRecord",
"fields":[
{
"name":"value",
"type":["bytes","null"]
}
]
}
推荐答案
名称字段在Avro架构中是必需的(https://jaceklaskowski.gitbooks.io/mastering-spark-sql/spark-sql-AvroOptions.html)
如果架构中未设置值topLevelRecord,则值topLevelRecord是默认值,但是您可以提供一个值以在写入数据框时覆盖它。
Scala: 创建参数映射并将其传递给编写器:val name = "AvroTest"
val parameters = Map("recordName" -> name)
df.write.options(parameters).format("avro").save("/tmp/output")
引用:https://docs.databricks.com/spark/latest/data-sources/read-avro.html
Python: 将选项传递给编写器,如下所示:
df.write.format("com.databricks.spark.avro").option("recordName", "Uber").save("tmp/output")
这篇关于使用Spark-avro写入数据帧创建topLevelRecord-要使用现有架构的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持编程学习网!
本文标题为:使用Spark-avro写入数据帧创建topLevelRecord-要使用现有架构
基础教程推荐
- 如何强制对超级方法进行多态调用? 2022-01-01
- Java 中保存最后 N 个元素的大小受限队列 2022-01-01
- 如何对 HashSet 进行排序? 2022-01-01
- 如何在不安装整个 WTP 包的情况下将 Tomcat 8 添加到 Eclipse Kepler 2022-01-01
- 如何使用 Stream 在集合中拆分奇数和偶数以及两者的总和 2022-01-01
- Spring Boot Freemarker从2.2.0升级失败 2022-01-01
- 在螺旋中写一个字符串 2022-01-01
- 首次使用 Hadoop,MapReduce Job 不运行 Reduce Phase 2022-01-01
- 由于对所需库 rt.jar 的限制,对类的访问限制? 2022-01-01
- 如何使用 Eclipse 检查调试符号状态? 2022-01-01