如何将汉字转换成二进制?
http://www.whylover.com/?p=670这里有`比较方便``如果你要解释的话请耐心看看 字符编码与汉字编码 1.字符编码 目前微型机中普遍采用的字符编码是ASCII码。
它是用七位二进制数对127个字符进行编码,其中前32个是一些不可打印的控制符号。
2.汉字编码及字模信息 汉字有两种编码:国标码与机内码。
国标码是"中华人民共和国国家标准信息交换汉字编码",代号为"GB2312-80"。
在国标码的字符集中,收集了一级汉字3755个,二级汉字3008个,图形符号682个,共7445个。
一个汉字对应一个区位码,由四位数字组成,前两位数字为区码(0~94),后两位数字为位码(0~94)。
机内码是指汉字在计算机中的编码 汉字的机内码占两个字节,分别称为机内码的高位与低位。
它们与区位码的关系如下: 机内码高位=区码+A0H 机内码低位=位码+A0H 汉字字库是由所有汉字的字模信息构成的。
一个汉字字模信息占若干字节,究竟占多少个字节由汉字的字形决定。
例如,如果用16*16点阵表示一个汉字,则一个汉字占16行,每行有16个点,在存储时用两个字节存放一行上16个点的信息,对应位为"0"表示该点为"白","1"表示该点为"黑"。
因此,一个16*16点阵的汉字占32个字节。
文字怎么转换成二进制数啊???
你注意看啊,百科写的很清楚,由于机器只识二进制数,英文等想要机器识别要通过ASCLL码,来转换。
汉字,日文,韩文呢也需要一个标准来转换成二进制让机器识别,这就是:“1981年,我国国家标准GB2312--80(信息交换用汉字编码字符集——基本集)为6763个常用汉字规定了代码,每个汉字占两个字节,每个字节用八位二进制数来表示。
1995年又颁布了《汉字编码扩展规范》(GBK)。
GBK与GB2312--80国家标准所对应的内容标准兼容,同时,在字汇一级支持ISO/IEC10646--1和GB13000--1的全部中、日、韩(CJK)汉字,共计20902字。
把文字、图形、图象、声音、动画等信息,变成按一定规则编码的二进制数,这就是信息的数字化。
”
二进制机器语言中文字是怎么转化成二进制代码的
我们所见的汉字从形体变成电脑的内码:1)需要汉字编码,anzi bianma汉字编码Chinese character encoding 为汉字设计的一种便于输入计算机的代码。
汉字信息处理系统一般包括编码、输入、存储、编辑、输出和传输。
编码是关键。
不解决这个问题,汉字就不能进入计算机。
2)计算机中汉字的表示也是用二进制编码,同样是人为编码的。
根据应用目的的不同,汉字编码分为外码、交换码、机内码和字形码。
外码(输入码);交换码(国标码);机内码;汉字的字形码;汉字地址码;3)符合规范的字符集。
如果超出了输入法所支持的字符集,就不能录入计算机。
① GB2312-80字符集,中文名国家标准字符集(GB=GuóBiāo国标)。
② Big-5字符集,中文名大五码,是台湾繁体字的字符集。
③ GBK字符集,中文名国家标准扩展字符集(GB=GuóBiāo国标;K=Kuò扩,即扩展),兼容GB2312-80标准,包含Big-5的繁体字,但是不兼容Big-5字符集编码。
④ 转码软件,Big-5 (台湾繁体字)与GB2312-80 (大陆简体字),编码不相兼容,字符在不同的操作系统中便产生乱码。
文本文字的简体与繁体(文字及编码)之间的转换需经转码软件完成。
文字怎样转化成二进制信息?
展开全部 你注意看啊,百科写的很清楚,由于机器只识二进制数,英文等想要机器识别要通过ASCLL码,来转换。
汉字,日文,韩文呢也需要一个标准来转换成二进制让机器识别,这就是:“1981年,我国国家标准GB2312--80(信息交换用汉字编码字符集——基本集)为6763个常用汉字规定了代码,每个汉字占两个字节,每个字节用八位二进制数来表示。
1995年又颁布了《汉字编码扩展规范》(GBK)。
GBK与GB2312--80国家标准所对应的内容标准兼容,同时,在字汇一级支持ISO/IEC10646--1和GB13000--1的全部中、日、韩(CJK)汉字,共计20902字。
把文字、图形、图象、声音、动画等信息,变成按一定规则编码的二进制数,这就是信息的数字化。
”...
二进制转换为文字
一幅图片可以表示成像素点的集合,将图片中所有像素点的信息以RGB的形式逐个保存到文件中,就是bmp位图。
将所有像素点的RGB矩阵作DCT变换,可以得到去除高频分量后的图像信号,从而大幅缩小图片文件的体积,实现压缩存储,这就是jpg/jpeg图片。
文字实际上就是二进制编码,按照正确的字符集解释就可以得到对应的文字信息。
再通过字体渲染就可以显示在屏幕上。
二进制文件与文本文件的区别
一、文本文件与二进制文件的定义大家都知道计算机的存储在物理上是二进制的,所以文本文件与二进制文件的区别并不是物理上的,而是逻辑上的。
这两者只是在编码层次上有差异。
简单来说,文本文件是基于字符编码的文件,常见的编码有ASCII编码,UNICODE编码等等。
二进制文件是基于值编码的文件,你可以根据具体应用,指定某个值是什么意思(这样一个过程,可以看作是自定义编码。
从上面可以看出文本文件基本上是定长编码的(也有非定长的编码如UTF-8)。
而二进制文件可看成是变长编码的,因为是值编码嘛,多少个比特代表一个值,完全由你决定。
大家可能对BMP文件比较熟悉,就拿它举例子吧,其头部是较为固定长度的文件头信息,前2字节用来记录文件为BMP格式,接下来的8个字节用来记录文件长度,再接下来的4字节用来记录bmp文件头的长度。
二、文本文件与二进制文件的存取文本工具打开一个文件的过程是怎样的呢?拿记事本来说,它首先读取文件物理上所对应的二进制比特流,然后按照你所选择的解码方式来解释这个流,然后将解释结果显示出来。
一般来说,你选取的解码方式会是ASCII码形式(ASCII码的一个字符是8个比特),接下来,它8个比特8个比特地来解释这个文件流。
例如对于这么一个文件流"01000000_01000001_01000010_01000011"(下划线''_'',为了增强可读性手动添加的),第一个8比特''01000000''按ASCII码来解码的话,所对应的字符是字符''A'',同理其它3个8比特可分别解码为''BCD'',即这个文件流可解释成“ABCD”,然后记事本就将这个“ABCD”显示在屏幕上。
事实上,世界上任何东西要与其他东西通信会话,都存在一个既定的协议,既定的编码。
人与人之间通过文字联络,汉字“妈”代表生你的那个人,这就是一种既定的编码。
但注意到这样一种情况,汉字“妈”在日本文字里有可能是你生下的那个人,所以当一个中国人A与日本B之间用“妈”这个字进行交流,出现误解就很正常的。
用记事本打开二进制文件与上面的情况类似。
记事本无论打开什么文件都按既定的字符编码工作(如ASCII码),所以当他打开二进制文件时,出现乱码也是很必然的一件事情了,解码和译码不对应嘛。
例如文件流''00000000_00000000_00000000_00000001''可能在二进制文件中对应的是一个四字节的整数int 1,在记事本里解释就变成了"NULL_NULL_NULL_SOH"这四个控制符。
文本文件的存储与其读取基本上是个逆过程。
而二进制文件的存取显然与文本文件的存取差不多,只是编/解码方式不同而已,也不再叙述。
三、文本文件与二进制文件的优缺点因为文本文件与二进制文件的区别仅仅是编码上不同,所以他们的优缺点就是编码的优缺点,这个找本编码的书来看看就比较清楚了。
一般认为,文本文件编码基于字符定长,译码容易些;二进制文件编码是变长的,所以它灵活,存储利用率要高些,译码难一些(不同的二进制文件格式,有不同的译码方式)。
关于空间利用率,想想看,二进制文件甚至可以用一个比特来代表一个意思(位操作),而文本文件任何一个意思至少是一个字符.在windows下,文本文件不一定是一ASCII来存贮的,因为ASCII码只能表示128的标识,你打开一个txt文档,然后另存为,有个选项是编码,可以选择存贮格式,一般来说UTF-8编码格式兼容性要好一些.而二进制用的计算机原始语言,不存贮兼容性. 很多书上还认为,文本文件的可读性要好些,存储要花费转换时间(读写要编译码),而二进制文件可读性差,存储不存在转换时间(读写不要编解码,直接写值).这里的可读性是从软件使用者角度来说的,因为我们用通用的记事本工具就几乎可以浏览所有文本文件,所以说文本文件可读性好;而读写一个具体的二进制文件需要一个具体的文件解码器,所以说二进制文件可读性差,比如读BMP文件,必须用读图软件.而这里的存储转换时间应该是从编程的角度来说的,因为有些操作系统如windows需要对回车换行符进行转换(将''\n'',换成''\r\n'',所以文件读写时,操作系统需要一个一个字符的检查当前字符是不是''\n''或''\r\n'').这个在存储转换在Linux操作系统中并不需要,当然,当在两个不同的操作系统上共享文件时,这种存储转换又可能出来
低调的活4836881