C语言delay延时时间肿么算,说的详细点谢谢

已举报 回答
C语言delay延时时间肿么算,说的详细点谢谢
问在线客服
扫码问在线客服
  • 回答数

    3

  • 浏览数

    1,478

3个回答 默认排序
  • 默认排序
  • 按时间排序

已采纳
DelayMS(300)表示希望系统delay 300毫秒,那系统如何来计算这300毫秒呢?首先,系统有自己的RTC,根据硬件的晶振(Hz)可以计算出一次振荡大约多少耗时,这样就能大约算出1ms需要多少次振荡,简单比喻一次振荡需要1us,那1ms就是1000次振荡,300ms就是300x1000次振荡,这样就能大概的计算出300ms delay.
取消 评论
执行for里面的时间再乘以x就是延时时间
取消 评论
可以调用库函数来获取前后时间差,计算出具体的延迟时间。如果这个是在嵌入式驱动里面的,可大概地按照CPU频率及循环次数来大概估算延迟,但这个延迟不太精确。
取消 评论
ZOL问答 > C语言delay延时时间肿么算,说的详细点谢谢

举报

感谢您为社区的和谐贡献力量请选择举报类型

举报成功

经过核实后将会做出处理
感谢您为社区和谐做出贡献

扫码参与新品0元试用
晒单、顶楼豪礼等你拿

扫一扫,关注我们
提示

确定要取消此次报名,退出该活动?