51单片机C语言程序中延时函数delay的原理是什么?

Python011

51单片机C语言程序中延时函数delay的原理是什么?,第1张

原理:只是执行一些所谓的“无实际意义的指令”,如缩放或执行一个int自加,简单地说,就像高中数学中的“乘法原理”一样,很容易迅速增加上面提到的“无意义指令”的数量

关于大小的值:如果是在C语言中,该值不仅与水晶振动、单片机本身的速度,但也与C的编译器,所以,虽然这个值可以精确计算,但大多数情况下,程序员是经验值。

当然,如果你在汇编中编程,情况就不同了,因为每条指令使用一定数量的机器周期,你当然可以根据所有指令使用的总时间来计算特定延迟的总时间。

扩展资料:

定义延迟XMS毫秒的延迟函数

Voiddelay(unsignedintXMS)//XMS表示需要延迟的毫秒数

无符号intx,y;

For(x=XMS;X0;X-)

For(y=110;Y”0;Y-);

使用:

VoidDelay10us(ucharMs)

Uchar数据我;

(;女士“0;------Ms)

对于(I = 26)我>0我-)

I=[(延迟值-1.75)*12/ms-15]/4

delay函数是一般自己定义的一个延时函数。

c语言定义延时函数主要通过无意义指令的执行来达到延时的目的。下面给出一个经典的延时函数。

// 定义一个延时xms毫秒的延时函数

void delay(unsigned int xms) // xms代表需要延时的毫秒数

{

unsigned int x,y

for(x=xmsx>0x--)

for(y=110y>0y--)

}

一般延时1ms的程序是:

void Delay(uint x)

{

uchar i

while(x--)

{

for(i=120i>0i--)

}

}

那么当你在别的函数中用到Delay(10000)就是延时10000ms,也就是10S