什么是计算机元年?

上古时期的计算机操作系统是32位,一个int类型的数据是32位,它表示的范围是:-2147483648 ~ 2147483647,用它来代表秒钟数进行计算:2147483647/(3652460*60)=68.1(年)
也就是说用这个数来表示时间如果从公元纪年(耶稣诞生)开始算显然不够用,所以综合当时UNIX的发展历程,取了1970年做为计算机元年,用于计时的开始

什么是2038年问题?

32位表示最后时间到了2038年1月19日03时14分07秒,便达到了最大值,过了这个时间点,数据越界变成最小值:-2147483648。代表的时间就是1901年12月13日20时45分52秒,出现时间回归的现象,很多依赖时间的软件就会出现异常

2038年以后怎么办?

发展所导致的问题只能通过进一步发展解决,随着64为操作系统的普及,现在用64位操作 系统可以表示到292277026596年12月4日15时30分08秒了。也就是2900亿年以后

Logo

DAMO开发者矩阵,由阿里巴巴达摩院和中国互联网协会联合发起,致力于探讨最前沿的技术趋势与应用成果,搭建高质量的交流与分享平台,推动技术创新与产业应用链接,围绕“人工智能与新型计算”构建开放共享的开发者生态。

更多推荐