找回密码
 立即注册
查看: 160|回复: 0

高性能排序函数实现方案

[复制链接]
发表于 2023-1-27 19:52 | 显示全部楼层 |阅读模式
如C语言的qsort()、Java的Collections.sort(),这些排序函数如何实现?
1 合适的排序算法?





线性排序算法的时间复杂度较低,适用场景特殊,通用排序函数不能选择。

  • 小规模数据排序,可选时间复杂度O(n^2)算法
  • 大规模数据排序,时间复杂度O(nlogn)算法更高效
为兼顾任意规模数据的排序,一般首选时间复杂度O(nlogn)排序算法:堆排、快排都有较多应用,如JDK采用堆排实现排序函数,C使用快排。
2 归排分析

使用归排情况不多。快排最坏时间复杂度O(n^2),而归排能做到平均、最坏时间复杂度都是O(nlogn),看起来诱人,为何没被“宠信”?
归排不是原地排序算法,空间复杂度O(n)。粗略夸张点讲,待排序100MB数据,除数据本身占用内存,排序还额外再占100MB内存空间,空间耗费翻倍。
快排更适合实现排序,但快排最坏时间复杂度O(n2)。
3 优化快排

数据原来就有序或接近有序,每次分区点都选择最后一个数据,则快排就很差,时间复杂度退化为O(n2)。主要还是分区点不合理。
最理想分区点

被分区点分开的两个分区数据量差不多。为提高排序算法性能,尽可能让每次分区都平均:
3.1 三数取中法

从区间的首、尾、中,分别取个数,对比大小,取这3数中间值作为分区点。
这样每隔某固定长度,取数出来比较,将中间值作为分区点,比纯粹取某数据好。但若排序数组较大,则“三数取中”可能就不够,可能“五数取中”或“十数取中”。
3.2 随机法

每次从待排序区间,随机选一个元素作为分区点。
这不能保证每次分区点都选得好,但也不大可能每次分区点都选得差,平均情况下,这样选分区点较好。时间复杂度退化为最糟糕的$O(n2)$情况概率不大。
快排用递归实现,而递归要避免堆栈溢出:

  • 限制递归深度 一旦递归过深,超过设定阈值,就停止递归
  • 在堆上模拟实现一个函数调用栈 手动模拟递归压栈、出栈的过程,这样就没有了系统栈大小的限制。
4 总结

如Glibc的qsort()函数,名字很像基于快排,实际并不仅用快排。
qsort()优先使用归排,因归排空间复杂度$O(n)$,对小数据量排序,额外所需内存空间不大,即空间换时间。
但若数据量太大,归排不合适。改为快排。qsort()如何选择快排分区点?“三数取中法”。
递归太深会导致堆栈溢出,qsort()自己实现一个堆上的栈,手动模拟递归来解决。qsort()不仅用到归排、快排,还用到插排。快排过程中,当要排序的区间中,元素个数≤4,qsort()就退化为插排,不再续用递归做快排,因为小规模数据,$O(n2)$时间复杂度算法不一定比$O(nlogn)$的算法执行时间长。
算法性能可通过时间复杂度分析,但这种复杂度分析较偏理论,实际上时间复杂度并不等于代码实际的运行时间。
时间复杂度代表的是增长趋势,画成增长曲线图,发现$O(n2)$比$O(nlogn)$增长趋势更猛。大O复杂度表示法中,会省略低阶、系数和常数,即O(nlogn)在没有省略低阶、系数、常数之前可能是O(knlogn + c),而k和c有可能还是个较大的数。
假设k=1000,c=200,当我们对小规模数据(比如n=100)排序时,n2的值实际上比knlogn+c还要小。 $knlogn+c = 1000 * 100 * log100 + 200 >> 10000$ $n^2 = 100*100 = 10000$
所以,小规模数据排序,$O(n2)$排序算法不一定比$O(nlogn)$执行更久。小数据量排序,选择更简单、无需递归的插排。
哨兵来提高执行效率,在qsort()插入排序的算法实现中,虽然哨兵可能只是少做一次判断,但是毕竟排序函数是非常常用、非常基础的函数,性能的优化要做到极致。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
懒得打字嘛,点击右侧快捷回复 【右侧内容,后台自定义】
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Unity开发者联盟 ( 粤ICP备20003399号 )

GMT+8, 2024-11-16 06:51 , Processed in 0.089372 second(s), 26 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表