C语言delay延时时间怎么算,说的详细点谢谢

比如这个:void DelayMS(uint x) { uchar t; while(x--) for(t=0;t<120;t++); } DelayMS(300);
2025-02-06 12:03:11
推荐回答(4个)
回答1:

  1. DelayMS(300)表示希望系统delay 300毫秒,系统有自己的RTC,根据硬件的晶振(Hz)可以计算出一次振荡大约多少耗时,这样就能大约算出1ms需要多少次振荡;

  2. 简单比喻一次振荡需要1us,那1ms就是1000次振荡,300ms就是300x1000次振荡,这样就能大概的计算出300ms delay;

  3. 这得看你的CPU运行一条指令得多久,像单片机89C51一般一条1us。

  1. C语言是一门通用计算机编程语言,应用广泛。C语言的设计目标是提供一种能以简易的方式编译、处理低级存储器、产生少量的机器码以及不需要任何运行环境支持便能运行的编程语言;

  2. 尽管C语言提供了许多低级处理的功能,但仍然保持着良好跨平台的特性,以一个标准规格写出的C语言程序可在许多电脑平台上进行编译,甚至包含一些嵌入式处理器(单片机或称MCU)以及超级电脑等作业平台;

  3. 二十世纪八十年代,为了避免各开发厂商用的C语言语法产生差异,由美国国家标准局为C语言制定了一套完整的国际标准语法,称为ANSI C,作为C语言最初的标准。

回答2:

DelayMS(300)表示希望系统delay 300毫秒,那系统如何来计算这300毫秒呢?首先,系统有自己的RTC,根据硬件的晶振(Hz)可以计算出一次振荡大约多少耗时,这样就能大约算出1ms需要多少次振荡,简单比喻一次振荡需要1us,那1ms就是1000次振荡,300ms就是300x1000次振荡,这样就能大概的计算出300ms delay.

回答3:

可以调用库函数来获取前后时间差,计算出具体的延迟时间。如果这个是在嵌入式驱动里面的,可大概地按照CPU频率及循环次数来大概估算延迟,但这个延迟不太精确。

回答4:

执行for里面的时间再乘以x就是延时时间