我2 GB
在我的数据中有数据HDFS
.
是否可以随机获取数据.就像我们在Unix命令行中所做的那样
cat iris2.csv |head -n 50
Viacheslav R.. 34
本土头
hadoop fs -cat /your/file | head
这里效率很高,因为只要头部读完所有线条,猫就会关闭溪流.
为了获得尾部,hadoop中有一个特殊的有效命令:
hadoop fs -tail /your/file
不幸的是,它返回数据的最后一千字节,而不是给定数量的行.