堆的调整方法:shift up 和 shift down

发布时间: 2024-05-02 06:31:31 阅读量: 89 订阅数: 29
![堆的调整方法:shift up 和 shift down](https://img-blog.csdn.net/20161127085050890?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center) # 1. 向上调整 ### 2.1.1 Shift Up 的基本原理 Shift Up 是堆调整的一种操作,用于将一个新元素插入堆中并保持堆的性质。其基本原理是: - 将新元素插入堆的末尾。 - 比较新元素与其父节点的值。 - 如果新元素的值大于父节点,则交换新元素和父节点的位置。 - 重复上述步骤,直到新元素到达堆的正确位置。 ### 2.1.2 Shift Up 的实现步骤 ```python def shift_up(heap, i): """向上调整堆中索引为 i 的元素。 Args: heap: 堆的列表表示。 i: 要调整元素的索引。 """ while i > 0: parent = (i - 1) // 2 if heap[i] > heap[parent]: heap[i], heap[parent] = heap[parent], heap[i] i = parent else: break ``` # 2. 堆的调整方法 堆的调整操作是维持堆性质的关键,分为向上调整(Shift Up)和向下调整(Shift Down)两种方式。 ### 2.1 Shift Up:向上调整 #### 2.1.1 Shift Up 的基本原理 向上调整操作用于将一个新元素插入堆中时,将其向上移动到适当的位置,以满足堆的性质。具体而言,新元素会与它的父节点进行比较,如果新元素的值比父节点大(对于最大堆)或小(对于最小堆),则将新元素与父节点交换,并继续与父节点的父节点进行比较,直至新元素找到合适的位置。 #### 2.1.2 Shift Up 的实现步骤 ```python def shift_up(heap, i): """向上调整堆中第 i 个元素。 Args: heap: 堆列表。 i: 要调整的元素的索引。 """ while i > 0: parent = (i - 1) // 2 if heap[i] > heap[parent]: # 对于最大堆 heap[i], heap[parent] = heap[parent], heap[i] i = parent ``` **逻辑分析:** * `while i > 0`:循环直到到达堆的根节点。 * `parent = (i - 1) // 2`:计算父节点的索引。 * `if heap[i] > heap[parent]`:对于最大堆,比较新元素与父节点的值。如果新元素更大,则交换它们。 * `i = parent`:将当前索引更新为父节点的索引,继续向上比较。 ### 2.2 Shift Down:向下调整 #### 2.2.1 Shift Down 的基本原理 向下调整操作用于删除堆顶元素后,将堆中最后一个元素移动到适当的位置,以满足堆的性质。具体而言,最后一个元素会与它的左右子节点进行比较,如果最后一个元素的值比子节点小(对于最大堆)或大(对于最小堆),则将最后一个元素与较大的子节点交换,并继续与较大的子节点的左右子节点进行比较,直至最后一个元素找到合适的位置。 #### 2.2.2 Shift Down 的实现步骤 ```python def shift_down(heap, i, size): """向下调整堆中第 i 个元素。 Args: heap: 堆列表。 i: 要调整的元素的索引。 size: 堆的大小。 """ while 2 * i + 1 < size: left = 2 * i + 1 right = 2 * i + 2 if right < size and heap[right] > heap[left]: # 对于最大堆 max_child = right else: max_child = left if heap[i] < heap[max_child]: heap[i], heap[max_child] = heap[max_child], heap[i] i = max_child ``` **逻辑分析:** * `while 2 * i + 1 < size`:循环直到到达堆的最后一个节点。 * `left = 2 * i + 1`:计算左子节点的索引。 * `right = 2 * i + 2`:计算右子节点的索引。 * `if right < size and heap[right] > heap[left]`:对于最大堆,比较左右子节点的值。如果右子节点更大,则将 `max_child` 设置为右子节点的索引。 * `if heap[i] < heap[max_child]`:比较当前元素与 `max_child` 的值。如果当前元素更小,则交换它们。 * `i = max_child`:将当前索引更新为 `max_child` 的索引,继续向下比较。 # 3. 堆的构建 ### 3.1 堆的构建方法 堆的构建方法主要有两种:直接构建法和堆化法。 #### 3.1.1 直接构建法 直接构建法是指从空堆开始,逐个插入元素,并对每个新插入的元素进行向上调整,直到堆满足堆的性质。 ```python def build_heap_direct(arr): ```
corwn 最低0.47元/天 解锁专栏
买1年送3月
点击查看下一篇
profit 百万级 高质量VIP文章无限畅学
profit 千万级 优质资源任意下载
profit C知道 免费提问 ( 生成式Al产品 )

相关推荐

专栏简介
本专栏深入探讨了堆的数据结构,从基本概念和操作原理到各种应用场景。它涵盖了堆排序算法、优先队列、Top K 问题、滑动窗口最大值问题、连续中值问题等应用。此外,它还比较了堆与快速排序和二叉搜索树,分析了堆的构建方法和调整方法。专栏还介绍了堆在操作系统、定时任务调度和数据流中位数问题中的应用。它还探讨了堆的扩展应用,如外部排序算法和最小生成树算法。通过深入的分析和示例,本专栏旨在为读者提供对堆及其广泛应用的全面理解。
最低0.47元/天 解锁专栏
买1年送3月
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
C知道 免费提问 ( 生成式Al产品 )

最新推荐

L1正则化模型诊断指南:如何检查模型假设与识别异常值(诊断流程+案例研究)

![L1正则化模型诊断指南:如何检查模型假设与识别异常值(诊断流程+案例研究)](https://www.dmitrymakarov.ru/wp-content/uploads/2022/10/lr_lev_inf-1024x578.jpg) # 1. L1正则化模型概述 L1正则化,也被称为Lasso回归,是一种用于模型特征选择和复杂度控制的方法。它通过在损失函数中加入与模型权重相关的L1惩罚项来实现。L1正则化的作用机制是引导某些模型参数缩小至零,使得模型在学习过程中具有自动特征选择的功能,因此能够产生更加稀疏的模型。本章将从L1正则化的基础概念出发,逐步深入到其在机器学习中的应用和优势

图像处理中的正则化应用:过拟合预防与泛化能力提升策略

![图像处理中的正则化应用:过拟合预防与泛化能力提升策略](https://img-blog.csdnimg.cn/20191008175634343.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80MTYxMTA0NQ==,size_16,color_FFFFFF,t_70) # 1. 图像处理与正则化概念解析 在现代图像处理技术中,正则化作为一种核心的数学工具,对图像的解析、去噪、增强以及分割等操作起着至关重要

图像处理新视角:L2正则化的案例应用剖析

![图像处理新视角:L2正则化的案例应用剖析](https://img-blog.csdnimg.cn/20191008175634343.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80MTYxMTA0NQ==,size_16,color_FFFFFF,t_70) # 1. L2正则化概述 ## 1.1 什么是L2正则化 L2正则化,也称为岭回归(Ridge Regression)或权重衰减(Weight Dec

注意力机制与过拟合:深度学习中的关键关系探讨

![注意力机制与过拟合:深度学习中的关键关系探讨](https://ucc.alicdn.com/images/user-upload-01/img_convert/99c0c6eaa1091602e51fc51b3779c6d1.png?x-oss-process=image/resize,s_500,m_lfit) # 1. 深度学习的注意力机制概述 ## 概念引入 注意力机制是深度学习领域的一种创新技术,其灵感来源于人类视觉注意力的生物学机制。在深度学习模型中,注意力机制能够使模型在处理数据时,更加关注于输入数据中具有关键信息的部分,从而提高学习效率和任务性能。 ## 重要性解析

网格搜索:多目标优化的实战技巧

![网格搜索:多目标优化的实战技巧](https://img-blog.csdnimg.cn/2019021119402730.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3JlYWxseXI=,size_16,color_FFFFFF,t_70) # 1. 网格搜索技术概述 ## 1.1 网格搜索的基本概念 网格搜索(Grid Search)是一种系统化、高效地遍历多维空间参数的优化方法。它通过在每个参数维度上定义一系列候选值,并

随机搜索在强化学习算法中的应用

![模型选择-随机搜索(Random Search)](https://img-blog.csdnimg.cn/img_convert/e3e84c8ba9d39cd5724fabbf8ff81614.png) # 1. 强化学习算法基础 强化学习是一种机器学习方法,侧重于如何基于环境做出决策以最大化某种累积奖励。本章节将为读者提供强化学习算法的基础知识,为后续章节中随机搜索与强化学习结合的深入探讨打下理论基础。 ## 1.1 强化学习的概念和框架 强化学习涉及智能体(Agent)与环境(Environment)之间的交互。智能体通过执行动作(Action)影响环境,并根据环境的反馈获得奖

贝叶斯优化软件实战:最佳工具与框架对比分析

# 1. 贝叶斯优化的基础理论 贝叶斯优化是一种概率模型,用于寻找给定黑盒函数的全局最优解。它特别适用于需要进行昂贵计算的场景,例如机器学习模型的超参数调优。贝叶斯优化的核心在于构建一个代理模型(通常是高斯过程),用以估计目标函数的行为,并基于此代理模型智能地选择下一点进行评估。 ## 2.1 贝叶斯优化的基本概念 ### 2.1.1 优化问题的数学模型 贝叶斯优化的基础模型通常包括目标函数 \(f(x)\),目标函数的参数空间 \(X\) 以及一个采集函数(Acquisition Function),用于决定下一步的探索点。目标函数 \(f(x)\) 通常是在计算上非常昂贵的,因此需

机器学习调试实战:分析并优化模型性能的偏差与方差

![机器学习调试实战:分析并优化模型性能的偏差与方差](https://img-blog.csdnimg.cn/img_convert/6960831115d18cbc39436f3a26d65fa9.png) # 1. 机器学习调试的概念和重要性 ## 什么是机器学习调试 机器学习调试是指在开发机器学习模型的过程中,通过识别和解决模型性能不佳的问题来改善模型预测准确性的过程。它是模型训练不可或缺的环节,涵盖了从数据预处理到最终模型部署的每一个步骤。 ## 调试的重要性 有效的调试能够显著提高模型的泛化能力,即在未见过的数据上也能作出准确预测的能力。没有经过适当调试的模型可能无法应对实

特征贡献的Shapley分析:深入理解模型复杂度的实用方法

![模型选择-模型复杂度(Model Complexity)](https://img-blog.csdnimg.cn/img_convert/32e5211a66b9ed734dc238795878e730.png) # 1. 特征贡献的Shapley分析概述 在数据科学领域,模型解释性(Model Explainability)是确保人工智能(AI)应用负责任和可信赖的关键因素。机器学习模型,尤其是复杂的非线性模型如深度学习,往往被认为是“黑箱”,因为它们的内部工作机制并不透明。然而,随着机器学习越来越多地应用于关键决策领域,如金融风控、医疗诊断和交通管理,理解模型的决策过程变得至关重要

VR_AR技术学习与应用:学习曲线在虚拟现实领域的探索

![VR_AR技术学习与应用:学习曲线在虚拟现实领域的探索](https://about.fb.com/wp-content/uploads/2024/04/Meta-for-Education-_Social-Share.jpg?fit=960%2C540) # 1. 虚拟现实技术概览 虚拟现实(VR)技术,又称为虚拟环境(VE)技术,是一种使用计算机模拟生成的能与用户交互的三维虚拟环境。这种环境可以通过用户的视觉、听觉、触觉甚至嗅觉感受到,给人一种身临其境的感觉。VR技术是通过一系列的硬件和软件来实现的,包括头戴显示器、数据手套、跟踪系统、三维声音系统、高性能计算机等。 VR技术的应用