03_常见排序算法

一、简单排序

本系列笔记全部来源了 《2020最新数据结构与算法教程》,点击视频连接即可跳转观看学习。如有侵权,请联系删除,谢谢。

在我们的程序中,排序是非常常见的一种需求,提供一些数据元素,把这些数据元素按照一定的规则进行排序。比如查询一些订单,按照订单的日期进行排序;再比如查询一些商品,按照商品的价格进行排序等等。所以,接下来我们要学习一些常见的排序算法。

在go的开发工具包jdk中,已经给我们提供了很多数据结构与算法的实现,比如math, time 等等,都是以API的方式提供,这种方式的好处在于一次编写,多处使用。我们借鉴jdk的方式,也把算法封装到某个类中,那如果是这样,在我们写go代码之前,就需要先进行API的设计,设计好之后,再对这些API进行实现。

就比如我们先设计一套API如下:

类名 ArrayList
构造方法 go 中没有构造方法,一般是自定义一个 New 方法生成对象
成员方法 1. Add(n int):向集合中添加元素
2. Remove(index int):从集合中删除指定的元素

然后再使用go代码去实现它。以后我们讲任何数据结构与算法都是以这种方式讲解

注意,因为原文是用java写的,所以有些地方和原文的书写逻辑是不一样的。

1.1 冒泡排序

冒泡排序(Bubble Sort),是一种计算机科学领域的较简单的排序算法。

需求:

排序前:{4,5,6,3,2,1}

排序后:{1,2,3,4,5,6}

排序原理:

  1. 比较相邻的元素。如果前一个元素比后一个元素大,就交换这两个元素的位置。

  2. 对每一对相邻元素做同样的工作,从开始第一对元素到结尾的最后一对元素。最终最后位置的元素就是最大值。

// BubbleSort 冒泡排序
func BubbleSort(arr []int) []int {
	for i := len(arr) - 1; i > 0; i-- {
		for j := 0; j < i; j++ {
			if arr[j] > arr[j+1] {
				arr[j], arr[j+1] = arr[j+1], arr[j]
			}
		}
	}

	return arr
}

冒泡排序的时间复杂度分析 冒泡排序使用了双层for循环,其中内层循环的循环体是真正完成排序的代码,所以,我们分析冒泡排序的时间复杂度,主要分析一下内层循环体的执行次数即可。

在最坏情况下,也就是假如要排序的元素为{6,5,4,3,2,1}逆序,那么:

元素比较的次数为:

(N-1)+(N-2)+(N-3)+...+2+1=((N-1)+1)*(N-1)/2=N^2/2-N/2;

元素交换的次数为:

(N-1)+(N-2)+(N-3)+...+2+1=((N-1)+1)*(N-1)/2=N^2/2-N/2;

总执行次数为:

(N2/2-N/2)+(N2/2-N/2)=N^2-N;

按照大O推导法则,保留函数中的最高阶项那么最终冒泡排序的时间复杂度为O(N^2).

1.2 选择排序

选择排序是一种更加简单直观的排序方法。

需求:

排序前:{4,6,8,7,9,2,10,1}

排序后:{1,2,4,5,7,8,9,10}

排序原理:

1.每一次遍历的过程中,都假定第一个索引处的元素是最小值,和其他索引处的值依次进行比较,如果当前索引处的值大于其他某个索引处的值,则假定其他某个索引出的值为最小值,最后可以找到最小值所在的索引

2.交换第一个索引处和最小值所在的索引处的值

// SelectionSort 选择排序
//排序原理:
//1.每一次遍历的过程中,都假定第一个索引处的元素是最小值,和其他索引处的值依次进行比较,
//如果当前索引处的值大于其他某个索引处的值,则假定其他某个索引出的值为最小值,
//最后可以找到最小值所在的索引
//2.交换第一个索引处和最小值所在的索引处的值
func SelectionSort(arr []int) []int {
	for i := 0; i < len(arr) - 1; i++ {
		minIndex := i // 假定第一个索引处的元素是最小值
		for j := i + 1; j < len(arr); j++ {
			if arr[minIndex] > arr[j] {
				minIndex = j
			}
		}

		// 交换第一个索引处和最小值所在的索引处的值
		arr[i], arr[minIndex] = arr[minIndex], arr[i]
	}

	return arr
}

选择排序的时间复杂度分析:

选择排序使用了双层for循环,其中外层循环完成了数据交换,内层循环完成了数据比较,所以我们分别统计数据交换次数和数据比较次数。

数据比较次数:

(N-1)+(N-2)+(N-3)+...+2+1=((N-1)+1)*(N-1)/2=N^2/2-N/2;

数据交换次数:

N-1

时间复杂度:N2/2-N/2+(N-1)=N2/2+N/2-1;

根据大O推导法则,保留最高阶项,去除常数因子,时间复杂度为O(N^2);

1.3 插入排序

插入排序(Insertion sort)是一种简单直观且稳定的排序算法。

插入排序的工作方式非常像人们排序一手扑克牌一样。开始时,我们的左手为空并且桌子上的牌面朝下。然后,我们每次从桌子上拿走一张牌并将它插入左手中正确的位置。为了找到一张牌的正确位置,我们从右到左将它与已在手中的每张牌进行比较,如下图所示:

需求:

排序前:{4,3,2,10,12,1,5,6}

排序后:{1,2,3,4,5,6,10,12}

排序原理:

1.把所有的元素分为两组,已经排序的和未排序的;

2.找到未排序的组中的第一个元素,向已经排序的组中进行插入;

3.倒叙遍历已经排序的元素,依次和待插入的元素进行比较,直到找到一个元素小于等于待插入元素,那么就把待插入元素放到这个位置,其他的元素向后移动一位;

//InsertionSort 插入排序
//排序原理:
//1.把所有的元素分为两组,已经排序的和未排序的;
//2.找到未排序的组中的第一个元素,向已经排序的组中进行插入;
//3.倒叙遍历已经排序的元素,依次和待插入的元素进行比较,直到找到一个元素小于等于待插入元素,
//那么就把待插入元素放到这个位置,其他的元素向后移动一位;
func InsertionSort(arr []int) []int {
	for i := 1; i < len(arr); i++ {  //相当于未排序的数组
		for j := i; j > 0; j-- {  //相当于已排序的数组,倒序遍历,更加简单
			if arr[j] <= arr[j-1] {
				arr[j], arr[j-1] = arr[j-1], arr[j]
			}
		}
	}

	return arr
}

插入排序的时间复杂度分析

插入排序使用了双层for循环,其中内层循环的循环体是真正完成排序的代码,所以,我们分析插入排序的时间复杂度,主要分析一下内层循环体的执行次数即可。

最坏情况,也就是待排序的数组元素为{12,10,6,5,4,3,2,1},那么:

比较的次数为:

(N-1)+(N-2)+(N-3)+...+2+1=((N-1)+1)*(N-1)/2=N^2/2-N/2;

交换的次数为:

(N-1)+(N-2)+(N-3)+...+2+1=((N-1)+1)*(N-1)/2=N^2/2-N/2;

总执行次数为:

(N2/2-N/2)+(N2/2-N/2)=N^2-N;

按照大O推导法则,保留函数中的最高阶项那么最终插入排序的时间复杂度为O(N^2).

二、高级排序

之前我们学习过基础排序,包括冒泡排序,选择排序还有插入排序,并且对他们在最坏情况下的时间复杂度做了分析,发现都是O(N^2),而平方阶通过我们之前学习算法分析我们知道,随着输入规模的增大,时间成本将急剧上升,所以这些基本排序方法不能处理更大规模的问题,接下来我们学习一些高级的排序算法,争取降低算法的时间复杂度最高阶次幂。

2.1希尔排序

希尔排序是插入排序的一种,又称“缩小增量排序”,是插入排序算法的一种更高效的改进版本。

前面学习插入排序的时候,我们会发现一个很不友好的事儿,如果已排序的分组元素为{2,5,7,9,10},未排序的分组元素为{1,8},那么下一个待插入元素为1,我们需要拿着1从后往前,依次和10,9,7,5,2进行交换位置,才能完成真正的插入,每次交换只能和相邻的元素交换位置。那如果我们要提高效率,直观的想法就是一次交换,能把1放到更前面的位置,比如一次交换就能把1插到2之前,这样一次交换1就向前走了5个位置,可以减少交换的次数,这样的需求如何实现呢?接下来我们来看看希尔排序的原理。

需求:

排序前:{9,1,2,5,7,4,8,6,3,5}

排序后:{1,2,3,4,5,5,6,7,8,9}

排序原理:

1.选定一个增长量h,按照增长量h作为数据分组的依据,对数据进行分组;

2.对分好组的每一组数据完成插入排序;

3.减小增长量,最小减为1,重复第二步操作。

这里一定要注意,是对分完组后的数据进行插入排序的。

增长量h的确定:增长量h的值没有一个固定的规则,我们这里采用以下规则:

int h=1
while(h<5){ // 5是因为参与排序的数据个数为10,10/2=5
	h=2h+1;//3,7
}

//循环结束后我们就可以确定h的最大值;
h的减小规则为:
	h=h/2
package sort

//ShellSort  排序原理:
// 1.选定一个增长量h,按照增长量h作为数据分组的依据,对数据进行分组;
// 2.对分好组的每一组数据完成插入排序;
// 3.减小增长量,最小减为1,重复第二步操作。
// 希尔排序是插入排序的一种,又称“缩小增量排序”,是插入排序算法的一种更高效的改进版本。
func ShellSort(arr []int) []int {
	N := len(arr)
	var h int
	// 确定增长量h的最大值
	for h = 1; h < (N/2); h++ {
		h = h * 2 + 1
	}

	//当增长量h小于1,排序结束
	for h >= 1 {
		//找到待插入的元素
		for i := h; i < N; i++ {
			//arr[i]就是待插入的元素
			//把arr[i]插入到arr[i-h],arr[i-2h],arr[i-3h]...序列中
			for j := i; j >=h ; j-=h {
				//arr[j]就是待插入元素,依次和arr[j-h],arr[j-2h],arr[j-3h]进行比较,
				//如果arr[j]小,那么交换位置,如果不小于,arr[j]大,则插入完成。
				if arr[j-h] > arr[j] {
					arr[j-h], arr[j] = arr[j], arr[j-h]
				} else {
					break
				}
			}
		}

		h /= 2
	}

	return arr
}

希尔排序的时间复杂度分析

在希尔排序中,增长量h并没有固定的规则,有很多论文研究了各种不同的递增序列,但都无法证明某个序列是最好的,对于希尔排序的时间复杂度分析,已经超出了我们课程设计的范畴,所以在这里就不做分析了。我们可以使用事后分析法对希尔排序和插入排序做性能比较。

在资料的测试数据文件夹下有一个reverse_shell_insertion.txt文件,里面存放的是从100000到1的逆向数据,我们可以根据这个批量数据完成测试。测试的思想:在执行排序前前记录一个时间,在排序完成后记录一个时间,两个时间的时间差就是排序的耗时。

希尔排序和插入排序性能比较测试代码:

package sort

import (
	"fmt"
	"io/ioutil"
	"reflect"
	"strconv"
	"strings"
	"testing"
	"time"
)

func TestShellSort(t *testing.T)  {
	type test struct {
		input []int
		want []int
	}

	tests := map[string]test{
		"the first test case": {input: []int{3,4,5,7,8,1,7}, want: []int{1,3,4,5,7,7,8}},
		"the second test case": {input: []int{9,6,4,2,1}, want: []int{1,2,4,6,9}},
		"the third test case": {input: []int{-1,1,10,99,43,992,-2}, want: []int{-2,-1,1,10,43,99,992}},
		"the fourth test case": {input: []int{6,0,3,-99,-77,88}, want: []int{-99,-77,0,3,6,88}},
	}

	for name, tc := range tests {
		t.Run(name, func(t *testing.T) {
			got := ShellSort(tc.input)

			if !reflect.DeepEqual(got, tc.want) {
				t.Errorf("expected:%#v, got:%#v", tc.want, got)
			}
		})
	}

	content, err := ioutil.ReadFile("./reverse_shell_sort.txt")
	if err != nil {
		fmt.Printf("read file error, %v\n", err)
		return
	}

	tmp := strings.Split(string(content), ",")
	var sortArr []int
	for _, value := range tmp {
		i, _ := strconv.Atoi(value)
		sortArr = append(sortArr, i)
	}

	sortArr2 := make([]int, len(sortArr), len(sortArr))
	copy(sortArr2, sortArr)
	t.Log(len(sortArr))
	t.Log(len(sortArr2))

	now := time.Now()
	ShellSort(sortArr)
	t.Log("希尔排序花费时间:", time.Now().Sub(now))

	now = time.Now()
	InsertionSort(sortArr2)
	t.Log("插入排序花费时间:", time.Now().Sub(now))
}

通过测试发现,在处理大批量数据时,希尔排序的性能确实高于插入排序。

2.2归并排序

2.2.1 递归

正式学习归并排序之前,我们得先学习一下递归算法。

定义:

定义方法时,在方法内部调用方法本身,称之为递归

func show(n int) int {
	println("aaa")
	show()
}

作用:

它通常把一个大型复杂的问题,层层转换为一个与原问题相似的,规模较小的问题来求解。递归策略只需要少量的程序就可以描述出解题过程所需要的多次重复计算,大大地减少了程序的代码量。

注意事项:

在递归中,不能无限制的调用自己,必须要有边界条件,能够让递归结束,因为每一次递归调用都会在栈内存开辟新的空间,重新执行方法,如果递归的层级太深,很容易造成栈内存溢出。

需求:

请定义一个方法,使用递归完成求N的阶乘;

分析:
1!: 1
2!: 2*1=2*1!
3!: 3*2*1=3*2!
4!: 4*3*2*1=4*3!
...
n!: n*(n-1)*(n-2)...*2*1=n*(n-1)!
所以,假设有一个方法factorial(n)用来求n的阶乘,那么n的阶乘还可以表示为n*factorial(n-1)

代码实现:

func factorial(n int) int {
	if n == 1 {
		return 1
	} 

	return n * factorial(n-1)
}
2.2.2 归并排序

归并排序是建立在归并操作上的一种有效的排序算法,该算法是采用分治法的一个非常典型的应用。将已有序的子序列合并,得到完全有序的序列;即先使每个子序列有序,再使子序列段间有序。若将两个有序表合并成一个有序表,称为二路归并。

需求:

排序前:{8,4,5,7,1,3,6,2}

排序后:{1,2,3,4,5,6,7,8}

排序原理:

1.尽可能的一组数据拆分成两个元素相等的子组,并对每一个子组继续拆分,直到拆分后的每个子组的元素个数是1为止。

2.将相邻的两个子组进行合并成一个有序的大组;

3.不断的重复步骤2,直到最终只有一个组为止。

归并原理:

通过上面的分析,我们知道 归并=递归+合并。

归并排序代码实现:

package sort

//MergeSort 排序原理:
// 1.尽可能的一组数据拆分成两个元素相等的子组,并对每一个子组继续拆分,直到拆分后的每个子组的元素个数是 1为止。
// 2.将相邻的两个子组进行合并成一个有序的大组;
// 3.不断的重复步骤2,直到最终只有一个组为止。
func MergeSort(arr []int) []int {
	if len(arr) <= 1 {
		return arr
	}

	//获取分区位置 p
	p := len(arr) / 2

	left := MergeSort(arr[:p])
	right := MergeSort(arr[p:])

	return merge(left, right)
}

//merge 归并排序
func merge(left []int, right []int) []int {
	i, j := 0, 0
	m, n := len(left), len(right)

	//用于存放结果集
	var result []int
	for  {
		//任何一个区间先遍历完则退出
		if i >= m || j >= n {
			break
		}

		// 对所有区间数据进行排序
		if left[i] <= right[j] {
			result = append(result, left[i])
			i++
		} else {
			result = append(result, right[j])
			j++
		}
	}

	//下面两个循环,只会执行其中的一个
	// 如果左侧区间还没有遍历完,将剩余结果放到结果集
	if i != m {
		for ; i < m; i++ {
			result = append(result, left[i])
		}
	}
	// 如果右侧区间还没有遍历完,将剩余结果放到结果集
	if j != n {
		for ; j < n; j++ {
			result = append(result, right[j])
		}
	}

	//返回排序后的结果集
	return result
}

注意,上面写的归并排序并不具备稳定性, 具体可以使用 [[1,19],[1,20],[1,1],[1,18],[2,19],[2,9],[2,10]] 这样的来进行测试,会发现上述写法的归并排序并不具备稳定性!!,网上好多写法都是不具备稳定性的归并排序!!!

具有稳定性的归并排序代码如下:
原文链接 很不错的算法博客

/* 合并左子数组和右子数组 */
// 左子数组区间 [left, mid]
// 右子数组区间 [mid + 1, right]
func merge(nums []int, left, mid, right int) {
    // 初始化辅助数组 借助 copy 模块
    tmp := make([]int, right-left+1)
    for i := left; i <= right; i++ {
        tmp[i-left] = nums[i]
    }
    // 左子数组的起始索引和结束索引
    leftStart, leftEnd := left-left, mid-left
    // 右子数组的起始索引和结束索引
    rightStart, rightEnd := mid+1-left, right-left
    // i, j 分别指向左子数组、右子数组的首元素
    i, j := leftStart, rightStart
    // 通过覆盖原数组 nums 来合并左子数组和右子数组
    for k := left; k <= right; k++ {
        // 若“左子数组已全部合并完”,则选取右子数组元素,并且 j++
        if i > leftEnd {
            nums[k] = tmp[j]
            j++
            // 否则,若“右子数组已全部合并完”或“左子数组元素 <= 右子数组元素”,则选取左子数组元素,并且 i++
        } else if j > rightEnd || tmp[i] <= tmp[j] {
            nums[k] = tmp[i]
            i++
            // 否则,若“左右子数组都未全部合并完”且“左子数组元素 > 右子数组元素”,则选取右子数组元素,并且 j++
        } else {
            nums[k] = tmp[j]
            j++
        }
    }
}

/* 归并排序 */
func mergeSort(nums []int, left, right int) {
    // 终止条件
    if left >= right {
        return
    }
    // 划分阶段
    mid := (left + right) / 2
    mergeSort(nums, left, mid)
    mergeSort(nums, mid+1, right)
    // 合并阶段
    merge(nums, left, mid, right)
}

归并排序时间复杂度分析:

归并排序是分治思想的最典型的例子,上面的算法中,对a[lo...hi]进行排序,先将它分为a[lo...mid]和a[mid+1...hi]两部分,分别通过递归调用将他们单独排序,最后将有序的子数组归并为最终的排序结果。该递归的出口在于如果一个数组不能再被分为两个子数组,那么就会执行merge进行归并,在归并的时候判断元素的大小进行排序。

用树状图来描述归并,如果一个数组有8个元素,那么它将每次除以2找最小的子数组,共拆log8次,值为3,所以树共有3层,那么自顶向下第k层有2k个子数组,每个数组的长度为2(3-k),归并最多需要2^(3-k)次比较。因此每层的比较次数为 2^k * 2(3-k)=23,那么3层总共为 3*2^3。

假设元素的个数为n,那么使用归并排序拆分的次数为log2(n),所以共log2(n)层,那么使用log2(n)替换上面32^3中的3这个层数,最终得出的归并排序的时间复杂度为:log2(n) 2^(log2(n))=log2(n)*n,根据大O推导法则,忽略底数,最终归并排序的时间复杂度为O(nlogn);

归并排序的缺点:

需要申请额外的数组空间,导致空间复杂度提升,是典型的以空间换时间的操作。

归并排序与希尔排序性能测试:

之前我们通过测试可以知道希尔排序的性能是由于插入排序的,那现在学习了归并排序后,归并排序的效率与希尔排序的效率哪个高呢?我们使用同样的测试方式来完成一样这两个排序算法之间的性能比较。

在资料的测试数据文件夹下有一个reverse_arr.txt文件,里面存放的是从1000000到1的逆向数据,我们可以根据这个批量数据完成测试。测试的思想:在执行排序前前记录一个时间,在排序完成后记录一个时间,两个时间的时间差就是排序的耗时。

希尔排序和插入排序性能比较测试代码:

package sort

import (
	"fmt"
	"io/ioutil"
	"reflect"
	"strconv"
	"strings"
	"testing"
	"time"
)

func TestMergeSort(t *testing.T) {
	type test struct {
		input []int
		want []int
	}

	tests := map[string]test{
		"the first test case": {input: []int{3,4,5,7,8,1,7}, want: []int{1,3,4,5,7,7,8}},
		"the second test case": {input: []int{9,6,4,2,1}, want: []int{1,2,4,6,9}},
		"the third test case": {input: []int{-1,1,10,99,43,992,-2}, want: []int{-2,-1,1,10,43,99,992}},
		"the fourth test case": {input: []int{6,0,3,-99,-77,88}, want: []int{-99,-77,0,3,6,88}},
	}

	for name, tc := range tests {
		t.Run(name, func(t *testing.T) {
			got := MergeSort(tc.input)

			if !reflect.DeepEqual(got, tc.want) {
				t.Errorf("expected:%#v, got:%#v", tc.want, got)
			}
		})
	}

	content, err := ioutil.ReadFile("./reverse_shell_sort.txt")
	if err != nil {
		fmt.Printf("read file error, %v\n", err)
		return
	}

	tmp := strings.Split(string(content), ",")
	var sortArr []int
	for _, value := range tmp {
		i, _ := strconv.Atoi(value)
		sortArr = append(sortArr, i)
	}

	sortArr2 := make([]int, len(sortArr), len(sortArr))
	copy(sortArr2, sortArr)
	t.Log(len(sortArr))
	t.Log(len(sortArr2))

	now := time.Now()
	ShellSort(sortArr)
	t.Log("希尔排序花费时间:", time.Now().Sub(now))

	now = time.Now()
	MergeSort(sortArr2)
	t.Log("归并排序花费时间:", time.Now().Sub(now))
}

通过测试,发现希尔排序和归并排序在处理大批量数据时差别不是很大。

2.3 快速排序

快速排序是对冒泡排序的一种改进。它的基本思想是:通过一趟排序将要排序的数据分割成独立的两部分,其中一部分的所有数据都比另外一部分的所有数据都要小,然后再按此方法对这两部分数据分别进行快速排序,整个排序过程可以递归进行,以此达到整个数据变成有序序列。

需求:

排序前:{6, 1, 2, 7, 9, 3, 4, 5, 8}

排序后:{1, 2, 3, 4, 5, 6, 7, 8, 9}

排序原理:

1.首先设定一个分界值,通过该分界值将数组分成左右两部分;

2.将大于或等于分界值的数据放到到数组右边,小于分界值的数据放到数组的左边。此时左边部分中各元素都小于或等于分界值,而右边部分中各元素都大于或等于分界值;

3.然后,左边和右边的数据可以独立排序。对于左侧的数组数据,又可以取一个分界值,将该部分数据分成左右两部分,同样在左边放置较小值,右边放置较大值。右侧的数组数据也可以做类似处理。

4.重复上述过程,可以看出,这是一个递归定义。通过递归将左侧部分排好序后,再递归排好右侧部分的顺序。当左侧和右侧两个部分的数据排完序后,整个数组的排序也就完成了。

切分原理:

把一个数组切分成两个子数组的基本思想:

1.找一个基准值,用两个指针分别指向数组的头部和尾部;

2.先从尾部向头部开始搜索一个比基准值小的元素,搜索到即停止,并记录指针的位置;

3.再从头部向尾部开始搜索一个比基准值大的元素,搜索到即停止,并记录指针的位置;

4.交换当前左边指针位置和右边指针位置的元素;

5.重复2,3,4步骤,直到左边指针的值大于右边指针的值停止

(上面的步骤是如何进行切分,找到切分的值)

代码实现

package sort

func QuickSort(arr []int) []int {
	lo := 0
	hi := len(arr) - 1
	sort(arr, lo, hi)

	return arr
}

func sort(arr []int, lo, hi int) {
	// 子数组长度为 1 时终止递归
	if lo >= hi {
		return
	}
	//对arr数组中,从lo到hi的元素进行切分
	pivot := partition(arr, lo, hi)
	//对左边分组中的元素进行排序
	//对右边分组中的元素进行排序
	sort(arr, lo, pivot-1)
	sort(arr, pivot+1, hi)
}

func partition(arr []int, lo, hi int) int {
	i, j := lo, hi
	for i < j {
		for i < j && arr[j] >= arr[lo] {
			j-- //从右向左找到首个小于基准数的值 或者 i < j 不满足为止
		}
		for i < j && arr[i] <= arr[lo] {
			i++ //从左向右找到首个大于基准数的值 或者 i < j 不满足为止
		}

		arr[i], arr[j] = arr[j], arr[i]
	}
	// 将基准数交换至两子数组的分界线
	arr[i], arr[lo] = arr[lo], arr[i]
	return i
}

快速排序和归并排序的区别:

快速排序是另外一种分治的排序算法,它将一个数组分成两个子数组,将两部分独立的排序。快速排序和归并排序是互补的:归并排序将数组分成两个子数组分别排序,并将有序的子数组归并从而将整个数组排序,而快速排序的方式则是当两个数组都有序时,整个数组自然就有序了。在归并排序中,一个数组被等分为两半,归并调用发生在处理整个数组之前,在快速排序中,切分数组的位置取决于数组的内容,递归调用发生在处理整个数组之后。

快速排序时间复杂度分析:

快速排序的一次切分从两头开始交替搜索,直到left和right重合,因此,一次切分算法的时间复杂度为O(n),但整个快速排序的时间复杂度和切分的次数相关。

最优情况:每一次切分选择的基准数字刚好将当前序列等分。

如果我们把数组的切分看做是一个树,那么上图就是它的最优情况的图示,共切分了logn次,所以,最优情况下快速排序的时间复杂度为O(nlogn);

最坏情况:每一次切分选择的基准数字是当前序列中最大数或者最小数,这使得每次切分都会有一个子组,那么总共就得切分n次,所以,最坏情况下,快速排序的时间复杂度为O(n^2);

平均情况:每一次切分选择的基准数字不是最大值和最小值,也不是中值,这种情况我们也可以用数学归纳法证明,快速排序的时间复杂度为O(nlogn),由于数学归纳法有很多数学相关的知识,容易使我们混乱,所以这里就不对平均情况的时间复杂度做证明了。

2.4排序的稳定性

稳定性的定义:

数组arr中有若干元素,其中A元素和B元素相等,并且A元素在B元素前面,如果使用某种排序算法排序后,能够保证A元素依然在B元素的前面,可以说这个该算法是稳定的。

稳定性的意义:

如果一组数据只需要一次排序,则稳定性一般是没有意义的,如果一组数据需要多次排序,稳定性是有意义的。例如要排序的内容是一组商品对象,第一次排序按照价格由低到高排序,第二次排序按照销量由高到低排序,如果第二次排序使用稳定性算法,就可以使得相同销量的对象依旧保持着价格高低的顺序展现,只有销量不同的对象才需要重新排序。这样既可以保持第一次排序的原有意义,而且可以减少系统开销

第一次按照价格从低到高排序:

第二次按照销量进行从高到低排序

(华为mate30依旧在华为p30的前面)

常见排序算法的稳定性:

冒泡排序:

只有当arr[i]>arr[i+1]的时候,才会交换元素的位置,而相等的时候并不交换位置,所以冒泡排序是一种稳定排序算法。

选择排序:

选择排序是给每个位置选择当前元素最小的,例如有数据{5(1),8 ,5(2), 2, 9 },第一遍选择到的最小元素为2,所以5(1)会和2进行交换位置,此时5(1)到了5(2)后面,破坏了稳定性,所以选择排序是一种不稳定的排序算法。

插入排序:

比较是从有序序列的末尾开始,也就是想要插入的元素和已经有序的最大者开始比起,如果比它大则直接插入在其后面,否则一直往前找直到找到它该插入的位置。如果碰见一个和插入元素相等的,那么把要插入的元素放在相等元素的后面。所以,相等元素的前后顺序没有改变,从原无序序列出去的顺序就是排好序后的顺序,所以插入排序是稳定的。

希尔排序:

希尔排序是按照不同步长对元素进行插入排序 ,虽然一次插入排序是稳定的,不会改变相同元素的相对顺序,但在不同的插入排序过程中,相同的元素可能在各自的插入排序中移动,最后其稳定性就会被打乱,所以希尔排序是不稳定的。

归并排序:

归并排序在归并的过程中,只有arr[i]<arr[i+1]的时候才会交换位置,如果两个元素相等则不会交换位置,所以它并不会破坏稳定性,归并排序是稳定的。

快速排序:

快速排序需要一个基准值,在基准值的右侧找一个比基准值小的元素,在基准值的左侧找一个比基准值大的元素,然后交换这两个元素,此时会破坏稳定性,所以快速排序是一种不稳定的算法

posted @ 2023-03-16 20:31  画个一样的我  阅读(164)  评论(0编辑  收藏  举报