Cassandra:快速加载大数据

 Wonghowah 发布于 2023-01-16 11:20

我们目前正在单个节点集群上与Cassandra合作,以测试其上的应用程序开发.现在,我们有一个非常庞大的数据集,包含大约70万行文本,我们希望将其转储到Cassandra中.

我们尝试了以下所有方法:

使用python Cassandra驱动程序逐行插入

复制Cassandra命令

将sstable的压缩设置为none

我们已经探索了sstable批量加载器的选项,但我们没有适当的.db格式.我们要加载的文本文件有70M行,看起来像:

2f8e4787-eb9c-49e0-9a2d-23fa40c177a4    the magnet programs succeeded in attracting applicants and by the mid-1990s only #about a #third of students who #applied were accepted.

我们打算插入的列系列具有以下创建语法:

CREATE TABLE post (
  postid uuid,
  posttext text,
  PRIMARY KEY (postid)
) WITH
  bloom_filter_fp_chance=0.010000 AND
  caching='KEYS_ONLY' AND
  comment='' AND
  dclocal_read_repair_chance=0.000000 AND
  gc_grace_seconds=864000 AND
  index_interval=128 AND
  read_repair_chance=0.100000 AND
  replicate_on_write='true' AND
  populate_io_cache_on_flush='false' AND
  default_time_to_live=0 AND
  speculative_retry='99.0PERCENTILE' AND
  memtable_flush_period_in_ms=0 AND
  compaction={'class': 'SizeTieredCompactionStrategy'} AND
  compression={};

问题:将数据加载到一个简单的列族中需要永远 - 对于插入的30M行,需要5小时.我们想知道是否有任何方法可以加快这一点,因为在我们的服务器上加载到MySQL的相同数据的70M行的性能大约需要6分钟.

我们想知道我们是否错过了什么?或者,如果有人能指出我们正确的方向?

提前谢谢了!

撰写答案
今天,你开发时遇到什么问题呢?
立即提问
热门标签
PHP1.CN | 中国最专业的PHP中文社区 | PNG素材下载 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有