Rust vs python 程序性能结果问题

如何解决Rust vs python 程序性能结果问题

我写了一个计算字数的程序。

这是程序

use std::collections::HashMap;
use std::io;
use std::io::prelude::*;

#[derive(Debug)]
struct Entry {
    word: String,count: u32,}

static SEPARATORS: &'static [char] = &[
    ' ',','.','!','?','\'','"','\n','(',')','#','{','}','[',']','-',';',':',];

fn main() {
    if let Err(err) = try_main() {
        if err.kind() == std::io::ErrorKind::BrokenPipe {
            return;
        }
        // Ignore any error that may occur while writing to stderr.
        let _ = writeln!(std::io::stderr(),"{}",err);
    }
}

fn try_main() -> Result<(),std::io::Error> {
    let mut words: HashMap<String,u32> = HashMap::new();
    let stdin = io::stdin();
    for result in stdin.lock().lines() {
        let line = result?;
        line_processor(line,&mut words)
    }
    output(&mut words)?;
    Ok(())
}

fn line_processor(line: String,words: &mut HashMap<String,u32>) {
    let mut word = String::new();

    for c in line.chars() {
        if SEPARATORS.contains(&c) {
            add_word(word,words);
            word = String::new();
        } else {
            word.push_str(&c.to_string());
        }
    }
}

fn add_word(word: String,u32>) {
    if word.len() > 0 {
        if words.contains_key::<str>(&word) {
            words.insert(word.to_string(),words.get(&word).unwrap() + 1);
        } else {
            words.insert(word.to_string(),1);
        }
        // println!("word >{}<",word.to_string())
    }
}

fn output(words: &mut HashMap<String,u32>) -> Result<(),std::io::Error> {
    let mut stack = Vec::<Entry>::new();

    for (k,v) in words {
        stack.push(Entry {
            word: k.to_string(),count: *v,});
    }

    stack.sort_by(|a,b| b.count.cmp(&a.count));
    stack.reverse();

    let stdout = io::stdout();
    let mut stdout = stdout.lock();
    while let Some(entry) = stack.pop() {
        writeln!(stdout,"{}\t{}",entry.count,entry.word)?;
    }
    Ok(())
}

将一些任意文本文件作为输入并计算单词以产生一些输出,例如:

15  the
14  in
11  are
10  and
10  of
9   species
9   bats
8   horseshoe
8   is
6   or
6   as
5   which
5   their

我是这样编译的:

cargo build --release

我是这样运行的:

cat wiki-sample.txt | ./target/release/wordstats  | head -n 50

我使用的 wiki-sample.txt 文件是 here

我将执行时间与 python (3.8) 版本进行了比较:

import sys
from collections import defaultdict

# import unidecode

seps = set(
    [
        " ",",".","!","?","'","\n","(",")","#","{","}","[","]","-",";",":",]
)


def out(result):
    for i in result:
        print(f"{i[1]}\t{i[0]}")


if __name__ == "__main__":
    c = defaultdict(int)

    for line in sys.stdin:
        words = line.split(" ")
        for word in words:
            clean_word = []
            for char in word:
                if char not in seps and char:
                    clean_word.append(char)
            r = "".join(clean_word)
            # r = unidecode.unidecode(r)
            if r:
                c[r] += 1

    r = sorted(list(c.items()),key=lambda x: -x[1])
    try:
        out(r)
    except BrokenPipeError as e:
        pass

我是这样运行的:

cat /tmp/t.txt | ./venv/bin/python3 src/main.py | head -n 100
  • 平均计算时间为:rust -> 5',python3.8 -> 19'
  • python 版本(我认为)不太优化(整条线上的拆分需要额外的 O(n))
  • 这是一个单线程进程,一个非常简单的程序
  • 大部分计算时间都在字循环处理中,输出几乎是即时的。
  • 我还删除了删除重音符号的库代码,以便更接近两种语言的标准库。

问题:Rust 的性能“仅”提高约 3-4 倍是否正常?

我还想知道我是否在这里遗漏了一些东西,因为我发现“仅”100Mb 数据的计算时间很长。我不认为(天真地)有一些处理使用较低的大 O,我可能错了。

我习惯于将一些 python 代码与 go、java 或 vlang 中的一些等效代码进行比较,并且我经常将这些工作台的速度提高到 20 倍到 100 倍。

也许 cpython 擅长这种处理,也许我错过了 rust 程序中的一些东西(我对 rust 很陌生)以使其更有效率。

我害怕在测试中错过一些重要的东西,但有没有想过这个?

编辑:遵循人们的建议,我现在有以下版本:

use std::collections::HashMap;
use std::io;
use std::io::prelude::*;

#[derive(Debug)]
struct Entry<'a> {
    word: &'a str,// word: String,u32>) {
    let mut l = line.as_str();
    loop {
        if let Some(pos) = l.find(|c: char| SEPARATORS.contains(&c)) {
            let (head,tail) = l.split_at(pos);
            add_word(head.to_owned(),words);
            l = &tail[1..];
        } else {
            break;
        }
    }
}

fn add_word(word: String,u32>) {
    if word.len() > 0 {
        let count = words.entry(word).or_insert(0);
        *count += 1;
    }
}

fn output(words: &mut HashMap<String,v) in words {
        stack.push(Entry {
            word: k.as_str(),// word: k.to_string(),b| a.count.cmp(&b.count));

    let stdout = io::stdout();
    let mut stdout = stdout.lock();
    while let Some(entry) = stack.pop() {
        writeln!(stdout,entry.word)?;
    }
    Ok(())
}

现在在我的电脑上需要 2.6'。这比 python 版本好得多,快了近 10 倍,python 版本非常好,但仍然不是我所期望的(这不是真正的问题)。可能还有其他一些我暂时没有想到的优化。

解决方法

您可以通过避免 UTF-8 验证并使用 bstr crate 使您的搜索更加智能,从而加快速度。

use std::io;
use std::io::prelude::*;

use bstr::{BStr,BString,io::BufReadExt,ByteSlice};

type HashMap<K,V> = fnv::FnvHashMap<K,V>;

#[derive(Debug)]
struct Entry<'a> {
    word: &'a BStr,count: u32,}

static SEPSET: &'static [u8] = b",.!?'\"\n()#{}[]-;:";

fn main() {
    if let Err(err) = try_main() {
        if err.kind() == std::io::ErrorKind::BrokenPipe {
            return;
        }
        // Ignore any error that may occur while writing to stderr.
        let _ = writeln!(std::io::stderr(),"{}",err);
    }
}

fn try_main() -> Result<(),std::io::Error> {
    let mut words: HashMap<BString,u32> = HashMap::default();
    io::stdin().lock().for_byte_line(|line| {
        line_processor(line,&mut words);
        Ok(true)
    })?;
    output(&mut words)?;
    Ok(())
}

fn line_processor(mut line: &[u8],words: &mut HashMap<BString,u32>) {
    loop {
        if let Some(pos) = line.find_byteset(SEPSET) {
            let (head,tail) = line.split_at(pos);
            add_word(head,words);
            line = &tail[1..];
        } else {
            break;
        }
    }
}

fn add_word(word: &[u8],u32>) {
    if word.len() > 0 {
        // The vast majority of the time we are looking
        // up a word that already exists,so don't bother
        // allocating in the common path. This means the
        // uncommon path does two lookups,but it's so
        // uncommon that the overall result is much faster.
        if let Some(count) = words.get_mut(word.as_bstr()) {
            *count += 1;
        } else {
            words.insert(BString::from(word),1);
        }
    }
}

fn output(words: &mut HashMap<BString,u32>) -> Result<(),std::io::Error> {
    let mut stack = Vec::<Entry>::new();

    for (k,v) in words {
        stack.push(Entry {
            word: k.as_bstr(),count: *v,});
    }

    stack.sort_by(|a,b| a.count.cmp(&b.count));

    let stdout = io::stdout();
    let mut stdout = stdout.lock();
    while let Some(entry) = stack.pop() {
        writeln!(stdout,"{}\t{}",entry.count,entry.word)?;
    }
    Ok(())
}

此时,程序的大部分时间都花在了hashmap查找上。 (这就是为什么我改用上面的 fnv 的原因。)所以在这一点上让它更快可能意味着使用不同的策略来维护单词图。我的猜测是大多数单词的长度只有几个字节,因此您可以将那些使用数组作为映射而不是哈希映射的特殊情况。这可能会显着提高速度,但也会使您的原始程序更加复杂。

至于这个速度是否是人们所期望的,我会说,“对我来说似乎是正确的。”您的程序正在对 1450 万字的文档中的每个字执行一个操作。上面的程序在我的机器上大约需要 1.7 秒,这意味着它每秒处理大约 830 万个字,或每微秒大约 8.3 个字。鉴于每个单词都会进行哈希查找并需要搜索才能找到下一个单词,这似乎是正确的。

,

add_word() 中,您使用新的 word (.to_string()) 副本规避了借用问题。

对于所有要递增的计数器,您只需访问一次。

let count = words.entry(word).or_insert(0);
*count += 1;

您还可以通过直接在行上作为 line_processor() 工作来避免 &str 中的许多字符串重新分配。

let mut l = line.as_str();
loop {
    if let Some(pos) = l.find(|c: char| SEPARATORS.contains(&c)) {
        let (head,tail) = l.split_at(pos);
        add_word(head.to_owned(),words);
        l = &tail[1..];
    } else {
        break;
    }
}

当涉及到 output() 函数时,执行字符串的新副本以初始化 Entry 结构。 我们可以将 Entry 改为

#[derive(Debug)]
struct Entry<'a> {
    word: &'a str,// word: String,}

然后只处理原始字符串中的 &str(在 words 中)。

stack.push(Entry {
    word: k.as_str(),// word: k.to_string(),});

此外,如果我们反转排序标准,就可以避免已排序向量的就地反转。

stack.sort_by(|a,b| a.count.cmp(&b.count));
// stack.reverse();

我想这些是这个例子中的主要瓶颈。

在我的计算机上,使用 <wiki-sample.txt >/dev/null 计时可提供以下加速:

original -->  × 1 (reference)
using l.find()+l.split_at() --> × 1.48
using words.entry() --> × 1.25
using both l.find()+l.split_at() and words.entry() --> × 1.73
using all the preceding and &str in Entry and avoiding reverse --> x 2.05

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


依赖报错 idea导入项目后依赖报错,解决方案:https://blog.csdn.net/weixin_42420249/article/details/81191861 依赖版本报错:更换其他版本 无法下载依赖可参考:https://blog.csdn.net/weixin_42628809/a
错误1:代码生成器依赖和mybatis依赖冲突 启动项目时报错如下 2021-12-03 13:33:33.927 ERROR 7228 [ main] o.s.b.d.LoggingFailureAnalysisReporter : *************************** APPL
错误1:gradle项目控制台输出为乱码 # 解决方案:https://blog.csdn.net/weixin_43501566/article/details/112482302 # 在gradle-wrapper.properties 添加以下内容 org.gradle.jvmargs=-Df
错误还原:在查询的过程中,传入的workType为0时,该条件不起作用 &lt;select id=&quot;xxx&quot;&gt; SELECT di.id, di.name, di.work_type, di.updated... &lt;where&gt; &lt;if test=&qu
报错如下,gcc版本太低 ^ server.c:5346:31: 错误:‘struct redisServer’没有名为‘server_cpulist’的成员 redisSetCpuAffinity(server.server_cpulist); ^ server.c: 在函数‘hasActiveC
解决方案1 1、改项目中.idea/workspace.xml配置文件,增加dynamic.classpath参数 2、搜索PropertiesComponent,添加如下 &lt;property name=&quot;dynamic.classpath&quot; value=&quot;tru
删除根组件app.vue中的默认代码后报错:Module Error (from ./node_modules/eslint-loader/index.js): 解决方案:关闭ESlint代码检测,在项目根目录创建vue.config.js,在文件中添加 module.exports = { lin
查看spark默认的python版本 [root@master day27]# pyspark /home/software/spark-2.3.4-bin-hadoop2.7/conf/spark-env.sh: line 2: /usr/local/hadoop/bin/hadoop: No s
使用本地python环境可以成功执行 import pandas as pd import matplotlib.pyplot as plt # 设置字体 plt.rcParams[&#39;font.sans-serif&#39;] = [&#39;SimHei&#39;] # 能正确显示负号 p
错误1:Request method ‘DELETE‘ not supported 错误还原:controller层有一个接口,访问该接口时报错:Request method ‘DELETE‘ not supported 错误原因:没有接收到前端传入的参数,修改为如下 参考 错误2:cannot r
错误1:启动docker镜像时报错:Error response from daemon: driver failed programming external connectivity on endpoint quirky_allen 解决方法:重启docker -&gt; systemctl r
错误1:private field ‘xxx‘ is never assigned 按Altʾnter快捷键,选择第2项 参考:https://blog.csdn.net/shi_hong_fei_hei/article/details/88814070 错误2:启动时报错,不能找到主启动类 #
报错如下,通过源不能下载,最后警告pip需升级版本 Requirement already satisfied: pip in c:\users\ychen\appdata\local\programs\python\python310\lib\site-packages (22.0.4) Coll
错误1:maven打包报错 错误还原:使用maven打包项目时报错如下 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:3.2.0:resources (default-resources)
错误1:服务调用时报错 服务消费者模块assess通过openFeign调用服务提供者模块hires 如下为服务提供者模块hires的控制层接口 @RestController @RequestMapping(&quot;/hires&quot;) public class FeignControl
错误1:运行项目后报如下错误 解决方案 报错2:Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.8.1:compile (default-compile) on project sb 解决方案:在pom.
参考 错误原因 过滤器或拦截器在生效时,redisTemplate还没有注入 解决方案:在注入容器时就生效 @Component //项目运行时就注入Spring容器 public class RedisBean { @Resource private RedisTemplate&lt;String
使用vite构建项目报错 C:\Users\ychen\work&gt;npm init @vitejs/app @vitejs/create-app is deprecated, use npm init vite instead C:\Users\ychen\AppData\Local\npm-