编程英语要求高吗编程为什么要用英语和数字
英语包含26个英文字母包括大写和小写,一共52个,而加上英语常用的标点符号,比如 + - x ? / , . @ #等等,一共不到200个。
然后我们回过来头看看我们的母语,可爱的汉子,噢不对是汉字。让我们思考一个问题,我们究竟有多少个汉字?搜索引擎告诉我们汉字约十万个,十万个,十万个!!!此时标点符号神马的都是浮云了!
计算机我们知道只认识0和1,根本不认识a、b、c、d也根本不认识一、二、三、四,所以我们得想个办法把a、b、c、d等变成二进制表示,或者把汉字变成二进制表示(10万个可想而知难度之大)。我们头脑风暴一下,假如非要把汉字进行二进制表示,我们会遇到什么问题:
如果我们每个汉字给1个编号,最后一个汉字对应的编号是10w,转化成就二进制是111111…11111反正会占很大内存空间。
如果我们把笔画进行二进制编号表示,撇表示成1111,捺表示成0000,会遇到这样的问题,比如人和入,那么「人」的二进制表示是「1111 0000」,而「入」的二进制表示是「0000 1111
」,这是比较简单字,我们知道有些人是习惯倒笔画的,这样就容易造成编码标准不统一。
还有一个问题是多音字的问题,因为我们的汉字不仅形复杂,音也复杂,一个字有两个音很常见,有多个音也不是没有,这样每个二进制表示不得不多出来一组音调代码,占用更多的内存空间。
这三个问题是可以直接想到的,也许还存在其它的问题,换句话说用汉字来编程不是不可以,而是太复杂了可能遇到各种各样的问题,而用英语编程就不会遇到那么多问题。
ASCII码表,就是把字母、数字和符号进行二进制表示的对照表,一共177个,咱们举几个例子:
当有了这个对照表有了之后,我们就发现无论多复杂的自然语句都可以转化成二进制了,计算机自然就认识了。