La computadora digital sólo puede utilizar dos símbolos: el cero (0) y el uno (1), que son los únicos representables por los dispositivos electrónicos que componen la computadora. Por tanto, para que el ordenador pueda manejar la misma información que los humanos (textos, sonidos, imágenes, etc.), hay que realizar una conversión de los signos de nuestros lenguajes a ceros y unos (bits), a este proceso se le denomina codificación de la información. De manera que, tanto las instrucciones de los programas como los datos que estos manejan, deben codificarse en bits. A una sucesión de bits se le denomina código binario o código máquina.
010110111011101011010010110...". Esta es la forma que las computadoras utilizan para comunicarse entre sí. La razón de la existencia de la codificación de caracteres es que sería muy difícil para nosotros comprender este lenguaje de ceros y unos (bits).
4 comentarios:
Lenguaje máquina
Lenguaje de bajo nivel (ensamblador)
Lenguaje de lato nivel
La computadora digital sólo puede utilizar dos símbolos: el cero (0) y el uno (1), que son los únicos representables por los dispositivos electrónicos que componen la computadora. Por tanto, para que el ordenador pueda manejar la misma información que los humanos (textos, sonidos, imágenes, etc.), hay que realizar una conversión de los signos de nuestros lenguajes a ceros y unos (bits), a este proceso se le denomina codificación de la información. De manera que, tanto las instrucciones de los programas como los datos que estos manejan, deben codificarse en bits. A una sucesión de bits se le denomina código binario o código máquina.
010110111011101011010010110...". Esta es la forma que las computadoras utilizan para comunicarse entre sí. La razón de la existencia de la codificación de caracteres es que sería muy difícil para nosotros comprender este lenguaje de ceros y unos (bits).
010110111011101011010010110 solo utiliza el "0" y el "1"
Publicar un comentario