为什么Java默认为毫秒

Python09

为什么Java默认为毫秒,第1张

精度高。毫秒是秒的千分之一,精度很高,因为Java是一个编写代码的程序,要求必有要有非常高的精度,所以会默认为毫秒。Java是一门面向对象编程语言,1990年代初由詹姆斯·高斯林等人开发出Java语言的雏形,最初被命名为Oak,后随着互联网的发展,经过对Oak的改造,1995年5月Java正式发布。

一、获取毫秒数的代码:

(1)System.currentTimeMillis() 这种方式速度最快。

(2)Calendar.getInstance().getTimeInMillis() 这种方式速度最慢。

二、获取微秒数的代码:

微秒使用System.nanoTime()方法:如果Java程序需要高精度的计时,如1毫秒或者更小,使用System.nanoTime()方法,可以满足需求。

扩展资料:

获取微秒函数System.nanoTime() 的隐患:

System.currentTimeMillis() 起始时间是基于 1970.1.1 0:00:00 这个确定的时间的,而System.nanoTime()是基于cpu核心的时钟周期来计时,它的开始时间是不确定的。

但是在多核处理器上,由于每个核心的开始时间不确定,那么

“long start = System.nanoTime()String ip = Utilities.getIpByUrl(url)long cost = System.nanoTime() - start  ”

这段代码有可能会运行在两个不同的cpu核心上,从而导致得到的结果完全不符逻辑。