STM32单片机延时函数全解析:SysTick和HAL库的奥秘

发布时间: 2024-07-05 20:53:58 阅读量: 311 订阅数: 40
![STM32单片机延时函数全解析:SysTick和HAL库的奥秘](https://img-blog.csdnimg.cn/e699d2537f114033a0103e63ffe6d639.png) # 1. STM32延时函数概述 STM32微控制器中,延时函数是实现系统定时和控制的重要功能。它允许程序员以精确的时间间隔执行任务,从而实现各种应用。STM32提供多种延时机制,包括SysTick定时器和HAL库函数,每种机制都有其独特的特性和适用场景。本章将概述STM32延时函数,为后续章节的深入探讨奠定基础。 # 2. SysTick延时机制 ### 2.1 SysTick寄存器结构与配置 SysTick是STM32系列MCU中用于实现系统定时器的外设。其寄存器结构如下: ``` struct __attribute__((packed)) SysTick_TypeDef { volatile uint32_t CTRL; // 控制和状态寄存器 volatile uint32_t LOAD; // 重载值寄存器 volatile uint32_t VAL; // 当前值寄存器 volatile const uint32_t CALIB; // 校准值寄存器 }; ``` 其中,关键寄存器如下: - **CTRL:**控制和状态寄存器,用于配置SysTick时钟源、中断使能、计数模式等。 - **LOAD:**重载值寄存器,用于设置SysTick定时器的重载值。 - **VAL:**当前值寄存器,用于读取SysTick定时器的当前值。 ### 2.2 SysTick中断处理流程 SysTick中断处理流程如下: 1. 当SysTick定时器计数器减至0时,触发SysTick中断。 2. 进入中断服务程序(ISR),执行中断处理代码。 3. 清除SysTick中断标志位。 4. 重载SysTick定时器,重新开始计数。 ### 2.3 SysTick延时函数实现 基于SysTick中断机制,可以实现延时函数。其基本原理如下: 1. 配置SysTick定时器,设置重载值。 2. 进入SysTick中断服务程序,执行延时操作。 3. 在延时操作完成后,退出中断服务程序。 ```c void SysTick_DelayMs(uint32_t ms) { // 计算SysTick重载值 uint32_t reload = (ms * (SystemCoreClock / 1000)) - 1; // 配置SysTick SysTick->LOAD = reload; SysTick->VAL = 0; SysTick->CTRL |= SysTick_CTRL_ENABLE_Msk | SysTick_CTRL_TICKINT_Msk; // 进入SysTick中断服务程序 while (!(SysTick->CTRL & SysTick_CTRL_COUNTFLAG_Msk)); // 清除SysTick中断标志位 SysTick->CTRL &= ~SysTick_CTRL_COUNTFLAG_Msk; // 退出SysTick中断服务程序 } ``` **代码逻辑逐行解读:** - 计算SysTick重载值:根据给定的延时时间ms,计算出SysTick定时器的重载值,以实现ms级的延时。 - 配置SysTick:设置SysTick定时器的重载值、当前值和控制寄存器,使能SysTick定时器和中断。 - 进入SysTick中断服务程序:进入SysTick中断服务程序,等待SysTick定时器计数器减至0。 - 清除SysTick中断标志位:当SysTick定时器计数器减至0时,触发SysTick中断,清除中断标志位。 - 退出SysTick中断服务程序:延时操作完成后,退出SysTick中断服务程序。 # 3. HAL库延时机制 ### 3.1 HAL库延时函数分类 HAL库提供了两种延时函数: - `HAL_Delay()`: 毫秒级延时函数,可实现毫秒级延时。 - `HAL_DelayUS()`: 微秒级延时函数,可实现微秒级延时。 ### 3.2 `HAL_Delay()`函数原理与使用 `HAL_Delay()`函数的原理是使用SysTick定时器。其内部实现如下: ```c void HAL_Delay(uint32_t Delay) { __HAL_RCC_SYSCFG_CLK_ENABLE(); HAL_IncTick(); HAL_SYSTICK_Config(HAL_RCC_GetHCLKFreq() / 1000); while (Delay--) { while ((SysTick->CTRL & SysTick_CTRL_COUNTFLAG_Msk) == 0) { } HAL_IncTick(); } SysTick->CTRL &= ~SysTick_CTRL_ENABLE_Msk; } ``` **参数说明:** - `Delay`: 延时时间,单位为毫秒。 **使用步骤:** 1. 使能SysTick时钟。 2. 调用`HAL_IncTick()`函数增加SysTick计数器。 3. 配置SysTick定时器,使其每1ms产生一个中断。 4. 进入延时循环,等待`Delay`个毫秒。 5. 在延时循环中,不断检查SysTick中断标志位。 6. 每当SysTick中断发生时,调用`HAL_IncTick()`函数增加SysTick计数器。 7. 当延时时间达到时,退出延时循环,关闭SysTick定时器。 ### 3.3 `HAL_DelayUS()`函数原理与使用 `HAL_DelayUS()`函数的原理是使用SysTick定时器和CPU时钟频率。其内部实现如下: ```c void HAL_DelayUS(uint32_t Delay) { uint32_t tickstart = HAL_GetTick(); uint32_t wait = Delay * (HAL_RCC_GetHCLKFreq() / 1000000); while ((HAL_GetTick() - tickstart) < wait) { } } ``` **参数说明:** - `Delay`: 延时时间,单位为微秒。 **使用步骤:** 1. 获取当前SysTick计数器值。 2. 计算延时时间对应的SysTick计数器增量。 3. 进入延时循环,等待SysTick计数器增量达到。 4. 在延时循环中,不断检查SysTick计数器值。 5. 当延时时间达到时,退出延时循环。 # 4. SysTick与HAL库延时函数对比 ### 4.1 延时精度对比 SysTick和HAL库延时函数的延时精度都受限于系统时钟的精度。对于STM32系列MCU,系统时钟的精度一般为1μs。因此,SysTick和HAL库延时函数的延时精度也都在1μs左右。 **SysTick延时精度** SysTick延时精度主要受以下因素影响: - 系统时钟精度 - SysTick时钟源选择 - SysTick计数器分辨率 **HAL库延时精度** HAL库延时精度主要受以下因素影响: - 系统时钟精度 - HAL库延时函数实现方式 ### 4.2 延时范围对比 SysTick和HAL库延时函数的延时范围不同。SysTick延时范围为0~0xFFFFFFFF(约4.29s),而HAL库延时函数的延时范围为0~0x7FFFFFFF(约2.14s)。 **SysTick延时范围** SysTick延时范围由SysTick计数器的位宽决定。SysTick计数器为32位寄存器,因此其延时范围为0~0xFFFFFFFF。 **HAL库延时范围** HAL库延时函数的延时范围由其内部实现方式决定。HAL库延时函数一般通过循环的方式实现,因此其延时范围受限于循环次数。HAL_Delay()函数的延时范围为0~0x7FFFFFFF,而HAL_DelayUS()函数的延时范围为0~0x3FFFFFFF。 ### 4.3 延时效率对比 SysTick和HAL库延时函数的延时效率也不同。SysTick延时函数的效率更高,而HAL库延时函数的效率稍低。 **SysTick延时效率** SysTick延时函数的效率较高,主要是因为其直接使用SysTick硬件定时器实现。SysTick硬件定时器是一个独立的定时器,不占用CPU资源。因此,SysTick延时函数的执行不会影响其他任务的执行。 **HAL库延时效率** HAL库延时函数的效率稍低,主要是因为其通过循环的方式实现。循环的方式需要占用CPU资源,因此HAL库延时函数的执行会影响其他任务的执行。 **性能对比表格** | 特性 | SysTick延时函数 | HAL库延时函数 | |---|---|---| | 延时精度 | 1μs | 1μs | | 延时范围 | 0~0xFFFFFFFF | 0~0x7FFFFFFF | | 延时效率 | 高 | 低 | # 5.1 LED闪烁程序 在LED闪烁程序中,延时函数用于控制LED的亮灭时间。以下是一个使用SysTick延时函数实现LED闪烁的示例代码: ```c #include "stm32f10x.h" void SysTick_Handler(void) { GPIO_WriteBit(GPIOB, GPIO_Pin_5, (BitAction)(1 - GPIO_ReadOutputDataBit(GPIOB, GPIO_Pin_5))); } int main(void) { RCC_APB2PeriphClockCmd(RCC_APB2Periph_GPIOB, ENABLE); GPIO_InitTypeDef GPIO_InitStructure; GPIO_InitStructure.GPIO_Pin = GPIO_Pin_5; GPIO_InitStructure.GPIO_Mode = GPIO_Mode_Out_PP; GPIO_InitStructure.GPIO_Speed = GPIO_Speed_50MHz; GPIO_Init(GPIOB, &GPIO_InitStructure); SysTick_Config(SystemCoreClock / 1000); while (1) { } } ``` 在这个程序中,SysTick中断服务函数用于切换LED的状态。当SysTick中断发生时,它会将LED的输出电平取反,从而实现LED的闪烁。 ## 5.2 串口通信程序 在串口通信程序中,延时函数用于控制数据的发送和接收速率。以下是一个使用HAL库延时函数实现串口通信的示例代码: ```c #include "stm32f10x.h" #include "usart.h" int main(void) { USART_InitTypeDef USART_InitStructure; USART_InitStructure.USART_BaudRate = 9600; USART_InitStructure.USART_WordLength = USART_WordLength_8b; USART_InitStructure.USART_StopBits = USART_StopBits_1; USART_InitStructure.USART_Parity = USART_Parity_No; USART_InitStructure.USART_Mode = USART_Mode_Rx | USART_Mode_Tx; USART_Init(USART1, &USART_InitStructure); while (1) { uint8_t data = USART_ReceiveData(USART1); HAL_Delay(10); USART_SendData(USART1, data); } } ``` 在这个程序中,HAL_Delay()函数用于在数据发送和接收之间引入延迟,以确保数据传输的可靠性。 ## 5.3 定时器中断程序 在定时器中断程序中,延时函数用于控制定时器中断的发生频率。以下是一个使用SysTick延时函数实现定时器中断的示例代码: ```c #include "stm32f10x.h" void SysTick_Handler(void) { TIM_SetCounter(TIM2, 0); TIM_Cmd(TIM2, ENABLE); } void TIM2_IRQHandler(void) { if (TIM_GetITStatus(TIM2, TIM_IT_Update) != RESET) { TIM_ClearITPendingBit(TIM2, TIM_IT_Update); } } int main(void) { RCC_APB1PeriphClockCmd(RCC_APB1Periph_TIM2, ENABLE); TIM_TimeBaseInitTypeDef TIM_TimeBaseStructure; TIM_TimeBaseStructure.TIM_Prescaler = 8400 - 1; TIM_TimeBaseStructure.TIM_CounterMode = TIM_CounterMode_Up; TIM_TimeBaseStructure.TIM_Period = 1000 - 1; TIM_TimeBaseStructure.TIM_ClockDivision = TIM_CKD_DIV1; TIM_TimeBaseInit(TIM2, &TIM_TimeBaseStructure); TIM_ITConfig(TIM2, TIM_IT_Update, ENABLE); SysTick_Config(SystemCoreClock / 1000); while (1) { } } ``` 在这个程序中,SysTick中断服务函数用于触发定时器中断。当SysTick中断发生时,它会将定时器2的计数器清零并使能定时器2。定时器2中断服务函数用于清除定时器2的中断标志位。
corwn 最低0.47元/天 解锁专栏
买1年送3月
点击查看下一篇
profit 百万级 高质量VIP文章无限畅学
profit 千万级 优质资源任意下载
profit C知道 免费提问 ( 生成式Al产品 )

相关推荐

Big黄勇

硬件工程师
广州大学计算机硕士,硬件开发资深技术专家,拥有超过10多年的工作经验。曾就职于全球知名的大型科技公司,担任硬件工程师一职。任职期间负责产品的整体架构设计、电路设计、原型制作和测试验证工作。对硬件开发领域有着深入的理解和独到的见解。
专栏简介
本专栏深入探讨了 STM32 单片机延时的方方面面,从基本原理到高级应用。它涵盖了 SysTick 和 HAL 库的延时函数、延时精度的影响因素和优化策略,以及延时在各种应用中的指南,包括 LED 闪烁、传感器采样、中断处理和嵌入式系统。此外,它还探讨了延时在工业应用、医疗设备、汽车电子、人工智能和大数据处理中的关键作用。通过深入的分析和示例,本专栏为工程师提供了全面的指南,帮助他们掌握 STM32 单片机延时技术,并将其有效应用于各种项目中。
最低0.47元/天 解锁专栏
买1年送3月
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
C知道 免费提问 ( 生成式Al产品 )

最新推荐

【数据集加载与分析】:Scikit-learn内置数据集探索指南

![Scikit-learn基础概念与常用方法](https://analyticsdrift.com/wp-content/uploads/2021/04/Scikit-learn-free-course-1024x576.jpg) # 1. Scikit-learn数据集简介 数据科学的核心是数据,而高效地处理和分析数据离不开合适的工具和数据集。Scikit-learn,一个广泛应用于Python语言的开源机器学习库,不仅提供了一整套机器学习算法,还内置了多种数据集,为数据科学家进行数据探索和模型验证提供了极大的便利。本章将首先介绍Scikit-learn数据集的基础知识,包括它的起源、

【循环神经网络】:TensorFlow中RNN、LSTM和GRU的实现

![【循环神经网络】:TensorFlow中RNN、LSTM和GRU的实现](https://ucc.alicdn.com/images/user-upload-01/img_convert/f488af97d3ba2386e46a0acdc194c390.png?x-oss-process=image/resize,s_500,m_lfit) # 1. 循环神经网络(RNN)基础 在当今的人工智能领域,循环神经网络(RNN)是处理序列数据的核心技术之一。与传统的全连接网络和卷积网络不同,RNN通过其独特的循环结构,能够处理并记忆序列化信息,这使得它在时间序列分析、语音识别、自然语言处理等多

PyTorch超参数调优:专家的5步调优指南

![PyTorch超参数调优:专家的5步调优指南](https://img-blog.csdnimg.cn/20210709115730245.png) # 1. PyTorch超参数调优基础概念 ## 1.1 什么是超参数? 在深度学习中,超参数是模型训练前需要设定的参数,它们控制学习过程并影响模型的性能。与模型参数(如权重和偏置)不同,超参数不会在训练过程中自动更新,而是需要我们根据经验或者通过调优来确定它们的最优值。 ## 1.2 为什么要进行超参数调优? 超参数的选择直接影响模型的学习效率和最终的性能。在没有经过优化的默认值下训练模型可能会导致以下问题: - **过拟合**:模型在

优化之道:时间序列预测中的时间复杂度与模型调优技巧

![优化之道:时间序列预测中的时间复杂度与模型调优技巧](https://pablocianes.com/static/7fe65d23a75a27bf5fc95ce529c28791/3f97c/big-o-notation.png) # 1. 时间序列预测概述 在进行数据分析和预测时,时间序列预测作为一种重要的技术,广泛应用于经济、气象、工业控制、生物信息等领域。时间序列预测是通过分析历史时间点上的数据,以推断未来的数据走向。这种预测方法在决策支持系统中占据着不可替代的地位,因为通过它能够揭示数据随时间变化的规律性,为科学决策提供依据。 时间序列预测的准确性受到多种因素的影响,例如数据

Keras注意力机制:构建理解复杂数据的强大模型

![Keras注意力机制:构建理解复杂数据的强大模型](https://img-blog.csdnimg.cn/direct/ed553376b28447efa2be88bafafdd2e4.png) # 1. 注意力机制在深度学习中的作用 ## 1.1 理解深度学习中的注意力 深度学习通过模仿人脑的信息处理机制,已经取得了巨大的成功。然而,传统深度学习模型在处理长序列数据时常常遇到挑战,如长距离依赖问题和计算资源消耗。注意力机制的提出为解决这些问题提供了一种创新的方法。通过模仿人类的注意力集中过程,这种机制允许模型在处理信息时,更加聚焦于相关数据,从而提高学习效率和准确性。 ## 1.2

【图像分类模型自动化部署】:从训练到生产的流程指南

![【图像分类模型自动化部署】:从训练到生产的流程指南](https://img-blog.csdnimg.cn/img_convert/6277d3878adf8c165509e7a923b1d305.png) # 1. 图像分类模型自动化部署概述 在当今数据驱动的世界中,图像分类模型已经成为多个领域不可或缺的一部分,包括但不限于医疗成像、自动驾驶和安全监控。然而,手动部署和维护这些模型不仅耗时而且容易出错。随着机器学习技术的发展,自动化部署成为了加速模型从开发到生产的有效途径,从而缩短产品上市时间并提高模型的性能和可靠性。 本章旨在为读者提供自动化部署图像分类模型的基本概念和流程概览,

Pandas字符串处理:文本数据清洗转换一步到位

![Pandas基础概念与常用方法](https://img-blog.csdnimg.cn/bd6bf03ad2fb4299874c00f8edba17c4.png) # 1. Pandas字符串处理简介 在数据科学领域,Pandas库因其强大的数据处理能力而被广泛应用。Pandas不仅可以轻松地导入、清洗和处理各种数据集,它在处理字符串类型的数据时也表现出色。字符串处理是数据分析中一项重要的预处理步骤,它能够帮助我们从原始数据中提取有价值的信息,提高数据质量,从而为后续的分析工作打下坚实的基础。 Pandas提供了丰富多样的字符串操作方法,这些方法允许数据分析师和数据工程师执行各种文本

跨平台推荐系统:实现多设备数据协同的解决方案

![跨平台推荐系统:实现多设备数据协同的解决方案](http://www.renguang.com.cn/plugin/ueditor/net/upload/2020-06-29/083c3806-74d6-42da-a1ab-f941b5e66473.png) # 1. 跨平台推荐系统概述 ## 1.1 推荐系统的演变与发展 推荐系统的发展是随着互联网内容的爆炸性增长和用户个性化需求的提升而不断演进的。最初,推荐系统主要基于规则来实现,而后随着数据量的增加和技术的进步,推荐系统转向以数据驱动为主,使用复杂的算法模型来分析用户行为并预测偏好。如今,跨平台推荐系统正逐渐成为研究和应用的热点,旨

硬件加速在目标检测中的应用:FPGA vs. GPU的性能对比

![目标检测(Object Detection)](https://img-blog.csdnimg.cn/3a600bd4ba594a679b2de23adfbd97f7.png) # 1. 目标检测技术与硬件加速概述 目标检测技术是计算机视觉领域的一项核心技术,它能够识别图像中的感兴趣物体,并对其进行分类与定位。这一过程通常涉及到复杂的算法和大量的计算资源,因此硬件加速成为了提升目标检测性能的关键技术手段。本章将深入探讨目标检测的基本原理,以及硬件加速,特别是FPGA和GPU在目标检测中的作用与优势。 ## 1.1 目标检测技术的演进与重要性 目标检测技术的发展与深度学习的兴起紧密相关

【商业化语音识别】:技术挑战与机遇并存的市场前景分析

![【商业化语音识别】:技术挑战与机遇并存的市场前景分析](https://img-blog.csdnimg.cn/img_convert/80d0cb0fa41347160d0ce7c1ef20afad.png) # 1. 商业化语音识别概述 语音识别技术作为人工智能的一个重要分支,近年来随着技术的不断进步和应用的扩展,已成为商业化领域的一大热点。在本章节,我们将从商业化语音识别的基本概念出发,探索其在商业环境中的实际应用,以及如何通过提升识别精度、扩展应用场景来增强用户体验和市场竞争力。 ## 1.1 语音识别技术的兴起背景 语音识别技术将人类的语音信号转化为可被机器理解的文本信息,它
最低0.47元/天 解锁专栏
买1年送3月
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
C知道 免费提问 ( 生成式Al产品 )