如何解决Rust vs python 程序性能结果问题
我写了一个计算字数的程序。
这是程序
use std::collections::HashMap;
use std::io;
use std::io::prelude::*;
#[derive(Debug)]
struct Entry {
word: String,count: u32,}
static SEPARATORS: &'static [char] = &[
' ',','.','!','?','\'','"','\n','(',')','#','{','}','[',']','-',';',':',];
fn main() {
if let Err(err) = try_main() {
if err.kind() == std::io::ErrorKind::BrokenPipe {
return;
}
// Ignore any error that may occur while writing to stderr.
let _ = writeln!(std::io::stderr(),"{}",err);
}
}
fn try_main() -> Result<(),std::io::Error> {
let mut words: HashMap<String,u32> = HashMap::new();
let stdin = io::stdin();
for result in stdin.lock().lines() {
let line = result?;
line_processor(line,&mut words)
}
output(&mut words)?;
Ok(())
}
fn line_processor(line: String,words: &mut HashMap<String,u32>) {
let mut word = String::new();
for c in line.chars() {
if SEPARATORS.contains(&c) {
add_word(word,words);
word = String::new();
} else {
word.push_str(&c.to_string());
}
}
}
fn add_word(word: String,u32>) {
if word.len() > 0 {
if words.contains_key::<str>(&word) {
words.insert(word.to_string(),words.get(&word).unwrap() + 1);
} else {
words.insert(word.to_string(),1);
}
// println!("word >{}<",word.to_string())
}
}
fn output(words: &mut HashMap<String,u32>) -> Result<(),std::io::Error> {
let mut stack = Vec::<Entry>::new();
for (k,v) in words {
stack.push(Entry {
word: k.to_string(),count: *v,});
}
stack.sort_by(|a,b| b.count.cmp(&a.count));
stack.reverse();
let stdout = io::stdout();
let mut stdout = stdout.lock();
while let Some(entry) = stack.pop() {
writeln!(stdout,"{}\t{}",entry.count,entry.word)?;
}
Ok(())
}
将一些任意文本文件作为输入并计算单词以产生一些输出,例如:
15 the
14 in
11 are
10 and
10 of
9 species
9 bats
8 horseshoe
8 is
6 or
6 as
5 which
5 their
我是这样编译的:
cargo build --release
我是这样运行的:
cat wiki-sample.txt | ./target/release/wordstats | head -n 50
我使用的 wiki-sample.txt 文件是 here
我将执行时间与 python (3.8) 版本进行了比较:
import sys
from collections import defaultdict
# import unidecode
seps = set(
[
" ",",".","!","?","'","\n","(",")","#","{","}","[","]","-",";",":",]
)
def out(result):
for i in result:
print(f"{i[1]}\t{i[0]}")
if __name__ == "__main__":
c = defaultdict(int)
for line in sys.stdin:
words = line.split(" ")
for word in words:
clean_word = []
for char in word:
if char not in seps and char:
clean_word.append(char)
r = "".join(clean_word)
# r = unidecode.unidecode(r)
if r:
c[r] += 1
r = sorted(list(c.items()),key=lambda x: -x[1])
try:
out(r)
except BrokenPipeError as e:
pass
我是这样运行的:
cat /tmp/t.txt | ./venv/bin/python3 src/main.py | head -n 100
- 平均计算时间为:rust -> 5',python3.8 -> 19'
- python 版本(我认为)不太优化(整条线上的拆分需要额外的 O(n))
- 这是一个单线程进程,一个非常简单的程序
- 大部分计算时间都在字循环处理中,输出几乎是即时的。
- 我还删除了删除重音符号的库代码,以便更接近两种语言的标准库。
问题:Rust 的性能“仅”提高约 3-4 倍是否正常?
我还想知道我是否在这里遗漏了一些东西,因为我发现“仅”100Mb 数据的计算时间很长。我不认为(天真地)有一些处理使用较低的大 O,我可能错了。
我习惯于将一些 python 代码与 go、java 或 vlang 中的一些等效代码进行比较,并且我经常将这些工作台的速度提高到 20 倍到 100 倍。
也许 cpython 擅长这种处理,也许我错过了 rust 程序中的一些东西(我对 rust 很陌生)以使其更有效率。
我害怕在测试中错过一些重要的东西,但有没有想过这个?
编辑:遵循人们的建议,我现在有以下版本:
use std::collections::HashMap;
use std::io;
use std::io::prelude::*;
#[derive(Debug)]
struct Entry<'a> {
word: &'a str,// word: String,u32>) {
let mut l = line.as_str();
loop {
if let Some(pos) = l.find(|c: char| SEPARATORS.contains(&c)) {
let (head,tail) = l.split_at(pos);
add_word(head.to_owned(),words);
l = &tail[1..];
} else {
break;
}
}
}
fn add_word(word: String,u32>) {
if word.len() > 0 {
let count = words.entry(word).or_insert(0);
*count += 1;
}
}
fn output(words: &mut HashMap<String,v) in words {
stack.push(Entry {
word: k.as_str(),// word: k.to_string(),b| a.count.cmp(&b.count));
let stdout = io::stdout();
let mut stdout = stdout.lock();
while let Some(entry) = stack.pop() {
writeln!(stdout,entry.word)?;
}
Ok(())
}
现在在我的电脑上需要 2.6'。这比 python 版本好得多,快了近 10 倍,python 版本非常好,但仍然不是我所期望的(这不是真正的问题)。可能还有其他一些我暂时没有想到的优化。
解决方法
您可以通过避免 UTF-8 验证并使用 bstr
crate 使您的搜索更加智能,从而加快速度。
use std::io;
use std::io::prelude::*;
use bstr::{BStr,BString,io::BufReadExt,ByteSlice};
type HashMap<K,V> = fnv::FnvHashMap<K,V>;
#[derive(Debug)]
struct Entry<'a> {
word: &'a BStr,count: u32,}
static SEPSET: &'static [u8] = b",.!?'\"\n()#{}[]-;:";
fn main() {
if let Err(err) = try_main() {
if err.kind() == std::io::ErrorKind::BrokenPipe {
return;
}
// Ignore any error that may occur while writing to stderr.
let _ = writeln!(std::io::stderr(),"{}",err);
}
}
fn try_main() -> Result<(),std::io::Error> {
let mut words: HashMap<BString,u32> = HashMap::default();
io::stdin().lock().for_byte_line(|line| {
line_processor(line,&mut words);
Ok(true)
})?;
output(&mut words)?;
Ok(())
}
fn line_processor(mut line: &[u8],words: &mut HashMap<BString,u32>) {
loop {
if let Some(pos) = line.find_byteset(SEPSET) {
let (head,tail) = line.split_at(pos);
add_word(head,words);
line = &tail[1..];
} else {
break;
}
}
}
fn add_word(word: &[u8],u32>) {
if word.len() > 0 {
// The vast majority of the time we are looking
// up a word that already exists,so don't bother
// allocating in the common path. This means the
// uncommon path does two lookups,but it's so
// uncommon that the overall result is much faster.
if let Some(count) = words.get_mut(word.as_bstr()) {
*count += 1;
} else {
words.insert(BString::from(word),1);
}
}
}
fn output(words: &mut HashMap<BString,u32>) -> Result<(),std::io::Error> {
let mut stack = Vec::<Entry>::new();
for (k,v) in words {
stack.push(Entry {
word: k.as_bstr(),count: *v,});
}
stack.sort_by(|a,b| a.count.cmp(&b.count));
let stdout = io::stdout();
let mut stdout = stdout.lock();
while let Some(entry) = stack.pop() {
writeln!(stdout,"{}\t{}",entry.count,entry.word)?;
}
Ok(())
}
此时,程序的大部分时间都花在了hashmap查找上。 (这就是为什么我改用上面的 fnv
的原因。)所以在这一点上让它更快可能意味着使用不同的策略来维护单词图。我的猜测是大多数单词的长度只有几个字节,因此您可以将那些使用数组作为映射而不是哈希映射的特殊情况。这可能会显着提高速度,但也会使您的原始程序更加复杂。
至于这个速度是否是人们所期望的,我会说,“对我来说似乎是正确的。”您的程序正在对 1450 万字的文档中的每个字执行一个操作。上面的程序在我的机器上大约需要 1.7 秒,这意味着它每秒处理大约 830 万个字,或每微秒大约 8.3 个字。鉴于每个单词都会进行哈希查找并需要搜索才能找到下一个单词,这似乎是正确的。
,在 add_word()
中,您使用新的 word
(.to_string()
) 副本规避了借用问题。
对于所有要递增的计数器,您只需访问一次。
let count = words.entry(word).or_insert(0);
*count += 1;
您还可以通过直接在行上作为 line_processor()
工作来避免 &str
中的许多字符串重新分配。
let mut l = line.as_str();
loop {
if let Some(pos) = l.find(|c: char| SEPARATORS.contains(&c)) {
let (head,tail) = l.split_at(pos);
add_word(head.to_owned(),words);
l = &tail[1..];
} else {
break;
}
}
当涉及到 output()
函数时,执行字符串的新副本以初始化 Entry
结构。
我们可以将 Entry
改为
#[derive(Debug)]
struct Entry<'a> {
word: &'a str,// word: String,}
然后只处理原始字符串中的 &str
(在 words
中)。
stack.push(Entry {
word: k.as_str(),// word: k.to_string(),});
此外,如果我们反转排序标准,就可以避免已排序向量的就地反转。
stack.sort_by(|a,b| a.count.cmp(&b.count));
// stack.reverse();
我想这些是这个例子中的主要瓶颈。
在我的计算机上,使用 <wiki-sample.txt >/dev/null
计时可提供以下加速:
original --> × 1 (reference)
using l.find()+l.split_at() --> × 1.48
using words.entry() --> × 1.25
using both l.find()+l.split_at() and words.entry() --> × 1.73
using all the preceding and &str in Entry and avoiding reverse --> x 2.05
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。