1
linap 2018 年 4 月 15 日 via Android mysql
|
2
msg7086 2018 年 4 月 15 日 难道不是 grep ? 900M 简单过滤,10 秒钟足够了吧。
|
3
dobelee 2018 年 4 月 15 日 via Android 文本最简单最快的 grep 了。结构化的另说。excel 就不好了。
|
4
kiwi95 2018 年 4 月 15 日 via iPhone 行数据,grep, awk, sed 一套下来基本能搞定
|
5
liucudliucud 2018 年 4 月 15 日 via Android 传到集群上用任务搞,9 亿行都没问题
|
6
ynyounuo 2018 年 4 月 15 日 用 ripgrep 4.4 亿行用简单正则筛选只用 21 秒
wc -l < OpenSubtitles2018.raw.en 441450449 rg -n -i '.*way.*to.*explore.*' OpenSubtitles2018.raw.en 12.95s user 7.14s system 97% cpu 21.308 total |
7
clino 2018 年 4 月 15 日 via Android
unqlite 可以试试
|
8
qinrui 2018 年 4 月 15 日 via iPhone
awk
|
9
locktionc 2018 年 4 月 15 日
你如果能把样本数据,你需要筛选的内容都提供一下,大家会给你更多办法。
|
10
qwertyegg 2018 年 4 月 15 日
这不是大数据 101 的题目嘛?拆成 10 份分开弄,然后合并结果
|
11
wqzjk393 2018 年 4 月 16 日 via iPhone
1,数据库,用 where 筛选。2,用 pandas 的 read_csv 函数,dataframe 什么不能干?………实际上我们工作接触几千万行数据,是用 hive 数据库的。其实吧,我个人觉得,只要不死机,卡就卡吧…
|
12
Howlaind 2018 年 4 月 16 日 via Android
the_silver_searcher
|