En el formulario de imagen, la información se clasifica como. El fenómeno de la información.

Información (de Lat. Información, aclaración, presentación, conciencia) - información sobre algo o, independientemente de la forma de su presentación.

Actualmente, no hay una definición única de información como un término científico. Desde el punto de vista de varias áreas de conocimiento, este concepto se describe en su conjunto específico de características. Por ejemplo, el concepto de "información" es la informática básica, y es imposible darle una definición a través de otros conceptos "simples" (también en geometría, por ejemplo, es imposible expresar el contenido de los conceptos básicos "Punto", "haz", "plano" a través de conceptos más simples). El contenido de los conceptos principales y básicos en cualquier ciencia debe explicarse sobre los ejemplos o detectados por su comparación con el contenido de otros conceptos. En el caso del concepto de "información", el problema de su definición es aún más complicado, ya que es un concepto científico general. Este concepto se utiliza en varias ciencias (informática, cibernética, biología, física, etc.), mientras que en cada ciencia el concepto de "información" se asocia con diversos sistemas de conceptos.

Historia del concepto

La palabra "información" viene de la Lat. Información, que traduce cambios, aclaraciones, familiarización. El concepto de información fue considerado por los filósofos de los novios.

Antes del inicio de la Revolución Industrial, la definición de la esencia de la información seguía siendo prerrogativa de los filósofos predominantemente. En el siglo XX, la cibernética e informática comenzó a lidiar con las preguntas.

Clasificación de la información

La información se puede dividir en especies en varios criterios:

por método de percepción:

por forma de representación:

por cita:

por significado:

  • Actual - información, valiosa en este momento.
  • Fiable - información obtenida sin distorsión.
  • Borrar: la información expresada en el idioma, comprensible a quien se pretende.
  • Información completa suficiente para hacer la solución o comprensión correcta.
  • Útil: la utilidad de la información está determinada por el sujeto que recibió información, dependiendo de la cantidad de posibilidades de su uso.

por verdad:

El significado del término en varios campos del conocimiento.

Filosofía

El tradicionalismo de la subjetiva dominado constantemente en las primeras definiciones filosóficas de información, como categoría, conceptos, propiedades del mundo material. La información existe independientemente de nuestra conciencia, y puede reflejarse en nuestra percepción solo como resultado de la interacción: reflexiones, lectura, en forma de señal, incentivo. La información es intangible como todas las propiedades de la materia. La información se encuentra en una fila: la materia, el espacio, el tiempo, sistémico, la función, etc., ¿cuáles son los conceptos fundamentales de reflexión formalizada de la realidad objetiva en su distribución y variabilidad, diversidad y manifestación. La información es la propiedad de la materia y refleja sus propiedades (estado o capacidad de interacción) y la cantidad (medida) por interacción.

Desde un punto de vista material, la información es el procedimiento para seguir los objetos del mundo material. Por ejemplo, el orden de las letras en una hoja de papel de acuerdo con ciertas reglas es la información escrita. El orden de los puntos coloridos en una hoja de papel de acuerdo con ciertas reglas es la información gráfica. El orden de las notas musicales es la información musical. El orden de los genes en ADN es información hereditaria. El procedimiento para los siguientes bits en la computadora es la información de la computadora, etc., etc. para llevar a cabo un intercambio de información requiere la presencia de condiciones necesarias y suficientes.

Las condiciones necesarias:

  1. La presencia de al menos dos objetos diferentes de material o mundo intangible.
  2. La presencia de una propiedad común en objetos que permiten identificar objetos como portador de información.
  3. La presencia de los objetos de una propiedad específica que le permite distinguir entre los objetos entre sí.
  4. La presencia de las propiedades del espacio permite determinar el orden de los objetos. Por ejemplo, la ubicación de la información escrita en papel es una propiedad de papel específica que le permite colocar las letras de izquierda a derecha y hacia abajo.

Una condición suficiente es una:

La presencia de un sujeto capaz de reconocer información. Esta es una persona y la sociedad humana, la sociedad de animales, robots, etc.

Varios objetos (letras, símbolos, imágenes, sonidos, palabras, sugerencias, notas y tps.) Comunitó una vez la base de la información. El mensaje informativo se basa seleccionando de la base de copias de los objetos y la ubicación de estos objetos en el espacio en un orden específico. La longitud del mensaje de información se define como el número de copias de los objetos base y siempre se expresa en un entero. Es necesario distinguir la longitud del mensaje de información, que siempre se mide por un entero y el número de conocimientos contenidos en el mensaje de información, que se mide en una unidad de medición desconocida.

Desde un punto de vista matemático, la información es la secuencia de enteros que están escritos en el vector. Los números son el número de objeto en la base de información. El vector se llama información invariante, ya que no depende de la naturaleza física de los objetos base. El mismo mensaje informativo se puede expresar en letras, palabras, sugerencias, archivos, imágenes, notas, canciones, videoclips, cualquier combinación de todos los mencionados anteriormente. Lo que sea que expresamos información, solo los cambios de base, y no el invariante.

En informática

El tema de estudiar ciencias de la informática son los datos: métodos para su creación, almacenamiento, procesamiento y transmisión. Y la información en sí misma registrada en los datos, su significado significativo es interesante para los usuarios de sistemas de información que son especialistas en diversas ciencias y áreas de actividad: el médico está interesado en la información médica, el geólogo - geológico, empresario - comercial, etc. (incluyendo Especialista en informática interesada en la información sobre cómo trabajar con los datos).

Sistemología

Trabajar con información está relacionado con las transformaciones y siempre confirma su naturaleza material:

  • la grabación es la formación de la estructura de la materia y la modulación de las corrientes por la interacción de la herramienta con el transportista;
  • el almacenamiento es la estabilidad de la estructura (quasistática) y la modulación (cuasidinámica);
  • la lectura (estudio) es la interacción de la sonda (herramienta, convertidor, detector) con un sustrato o un flujo de materia.

La sistemología considera información a través de las relaciones con otras bases: I \u003d S / F, donde: I - información; S es el sistema de universo; F - Comunicación funcional; M - asunto; V - (v INNUTLINED) Signo de la Gran Asociación (Sistemas, Unidad de Base); R - espacio; T - tiempo.

En física

Los objetos del mundo material están en un estado de cambio continuo, que se caracteriza por el intercambio de energía del objeto con el medio ambiente. Cambiar el estado de un objeto siempre conduce a un cambio en el estado de algún otro objeto ambiental. Este fenómeno es independientemente de la forma en que se cambian los estados y qué objetos se pueden considerar como una transmisión de señal de un objeto a otro. Cambio del estado del objeto cuando la señal se transmite a él se denomina registro de la señal.

La señal o secuencia de señales forman un mensaje que puede ser percibido por el destinatario de una forma u otra, así como de una forma u otra. La información de la física es un término, una "señal" de "señal" de generalización cualitativamente generalizando y "mensaje". Si se pueden cuantificar señales y mensajes, entonces podemos decir que las señales y los mensajes son unidades de información de información.

El mismo mensaje (señal) en diferentes sistemas se interpreta a su manera. Por ejemplo, consistentemente largo y dos sonidos cortos (y aún más en la señal simbólica - ..) Señal en la terminología de Morse, esta es una letra D (o D), en la terminología de BIOS de la premio: un mal funcionamiento de la tarjeta de video.

En matemáticas

En las matemáticas, la teoría de la información (teoría matemática de la comunicación) es la sección de las matemáticas aplicadas, que determina el concepto de información, sus propiedades y el establecimiento de relaciones límite para los sistemas de transmisión de datos. Las secciones principales de la teoría de la información son la codificación de origen (codificación de compresivo) y la codificación de canal (resistente al ruido). Las matemáticas son más que la disciplina científica. Ella crea un solo idioma de toda la ciencia.

El tema de los estudios matemáticos son objetos abstractos: número, función, vector, conjunto y otros. Al mismo tiempo, la mayoría de ellos se inyectan de manera aciática (axioma), es decir, sin ninguna conexión con otros conceptos y sin ninguna definición.

La información no se encuentra entre el tema de la investigación de las matemáticas. Sin embargo, la palabra "información" se usa en términos matemáticos, información propia y información mutua relacionada con la parte abstracta (matemática) de la teoría de la información. Sin embargo, en la teoría matemática, el concepto de "información" se asocia con objetos exclusivamente abstractos: valores aleatorios, mientras que en la teoría moderna de la información, este concepto se considera significativamente más amplio como una propiedad de objetos materiales.

La conexión entre estos dos términos idénticos es indudable. Es el aparato matemático de números aleatorios utilizados al autor de la teoría de la información Claude Shannon. Él mismo implica bajo el término "información" algo fundamental (impedimento). En la teoría de Shannon, se basa intuitivamente que la información tiene contenido. La información reduce la incertidumbre general y la entropía de la información. La cantidad de información está disponible para medir. Sin embargo, advierte a los investigadores de la transferencia mecánica de conceptos de su teoría a otras áreas de la ciencia.

"Búsqueda de formas de aplicar la teoría de la información en otras áreas de la ciencia no se reduce a la transferencia trivial de los términos de un área de ciencia a otra. Esta búsqueda se realiza en el avance a largo plazo de nuevas hipótesis y verificación experimental ". K. Shannon.

En jurisprudencia

La definición legal del concepto de "información" se otorga en la Ley Federal del 27 de julio de 2006 "Nº 149-FZ" sobre la información, las tecnologías de la información y la protección de la información "(Artículo 2):" Información - Información (Mensajes, Datos), Independientemente de la forma de su representación ".

La Ley Federal No. 149-FZ determina y consagra los derechos para proteger la información de la información y la información de los ciudadanos y las organizaciones en sistemas informáticos y de información, así como a temas de seguridad de la información de ciudadanos, organizaciones, sociedades y estados.

En la teoría de la gerencia.

En la teoría de la gerencia (cibernética), el tema de la investigación de los cuales son las leyes básicas de la gestión, es decir, el desarrollo de los sistemas de gestión, la información se denomina información recibida por el sistema desde el mundo exterior durante el control adaptativo (adaptación, Sistema de auto-reparación).

El fundador de Cybernetics Norbert Wiener habló sobre la información como esta:

"La información no es de MATERIUM y NO Energía, la información es información". Pero la principal definición de información que dio en varios de sus libros, lo siguiente: la información es la designación del contenido obtenido por nosotros desde el mundo exterior en el proceso de adaptación a él y nuestros sentidos..

- N. Wiener Cibernética, o control y contacto en el animal y la máquina; o cibernética y la sociedad

Esta idea de Wiener le da una indicación directa de la objetividad de la información, es decir, su existencia en la naturaleza, independientemente de la conciencia (percepción) de una persona.

Información objetiva La cibernética moderna determina como una propiedad objetiva de los objetos materiales y los fenómenos para generar una diversidad de estados que se transmiten de un objeto (proceso) a otro, y se capturan en su estructura.

El sistema material en la cibernética se considera tantos objetos que ellos mismos pueden estar en diferentes estados, pero el estado de cada uno de ellos está determinado por los estados de otros objetos del sistema. En la naturaleza, el conjunto de estados estatales es la información, los propios estados son el código principal, o el código fuente. Por lo tanto, cada sistema de material es una fuente de información.

La información subjetiva (semántica) cibernética determina cómo el significado o el contenido del mensaje. (Ver ibid.) La información es la característica del objeto.

Desinformación

La desinformación (también desinformar) se llama una de las formas de manipular información, como la introducción de la enfermedad engañosa de alguien al proporcionar información incompleta o llena, pero ya no más información, o completa, pero no en el área correcta, distorsión del contexto La parte de la información.

El propósito de tal impacto es siempre uno, el oponente debe hacer lo que sea necesario para el manipulador. El acto de un objeto contra el cual se dirige la información errónea puede ser en la solución necesaria para el manipulador o al negarse a tomar una decisión desfavorable para el manipulador. Pero en cualquier caso, el objetivo final es la acción que se llevará a cabo.

La información es una educación muy difícil. La unidad en cuestión su definición no tuvo éxito. Pero entendemos perfectamente lo que es. Este es probablemente uno de los pocos casos en la ciencia cuando opera con los conceptos sin una definición clara. Curiosamente, la información es objeto de estudiar informática. Quizás es por eso que no hay definición clara. Pero aún así vamos a tratar de dar su propia interpretación a este término para obtener su comprensión más clara.

El concepto de información

Los tipos y las propiedades de los fenómenos son imposibles de desmontar si al menos aproximadamente no navegan en este término. Entonces, ¿qué es la información? Este es un compex de fenómenos que recibieron cierta reflexión en nuestra psique y que se pueden usar en nuestras actividades adicionales. La información se puede utilizar en una gran cantidad de posibles esferas de nuestra vida. Además, se utiliza. Varias formas nuevas de aplicar la información aparecen últimamente. Solo pecado no debe considerar la esfera de la vida humana en la que se puede usar la información.

¿Por qué lo necesitamos?

De hecho, ¿cuál es el punto de obtener información por parte de nosotros? Nos permite actuar y sobrevivir en este mundo. El hecho mismo de la supervivencia se manifiesta en todas partes, donde se va el pie humano. Veamos a donde nos mostremos nosotros mismos y es necesario sobrevivir o progresar (esta es la segunda tarea de la información).

  1. Necesidades básicas.
  2. Seguridad.
  3. Comunicación.
  4. Autodesarrollo.
  5. Capacitación.
  6. Educación.

Obviamente, es solo una pequeña parte de las posibles esferas de la vida humana, donde sería posible utilizar la información. Podemos obtenerlo las formas más diferentes. Desde el principio, hablaremos de dónde proviene la información, y luego vamos a pasar a diferentes clasificaciones que caracterizan este fenómeno.

Métodos para obtener información.

Y ahora comienza directamente a pasar al tema "Tipos principales de información". Vamos a empezar a considerar este fenómeno con la descripción posible, resulta, su importe realmente increíble. De hecho, cualquier artículo, si podemos pensar y percibirlo, puede ser un transportista de diferentes grados de importancia para nosotros. Aquí hay pequeños ejemplos:

  1. La Internet.
  2. Libros.
  3. Televisión.
  4. Lámina.
  5. Otro hombre.
  6. Manzana.

Y mucho más. Tal vez algunos artículos te sorprendieron. Por ejemplo, como una manzana puede ser, pero si lo piensas, esto es cierto. Lo mismo con la estufa.

Posibles clasificaciones

Y ahora nos dirigimos a la consideración de este concepto desde un punto de vista científico. Hay tres tipos de clasificaciones. Solo dos de ellos serán considerados en este artículo. Pero enumere brevemente estas clasificaciones en esta subsección. ¿Qué intenta sistematizar todo el flujo de información?

  1. Información sobre el formulario de formulario.
  2. Por valor público.

Esta clasificación es tan simple que es servida por los niños en el segundo grado en las lecciones de informática. Y ahora nos dirigimos directamente al tema de este artículo.

Clasificación de la información sobre el método de percepción.

Así es como el hombre la absorbe y los procesos. Esta clasificación nos es familiar desde la infancia, ya que se le enseñó de inmediato en varios temas educativos. Asignar esos tipos de información sobre el método de percepción:

  1. Visual. Estos son los datos que percibimos a través de nuestros ojos. Un ejemplo de dicha información puede ser la misma estufa o manzana. Estimamos su apariencia. Sobre la base de las bombillas que se queman en la estufa, podemos averiguar si funciona. Y se basa en estos datos, determine si es necesario seguirlo. Conocimiento de esto tenemos que sobrevivir. Interesante, no encuentra?
  2. Audial. Este es un tipo de información que es percibida por nuestros oídos. Sus ejemplos son muy simples: el ruido del automóvil, las voces de las personas, sonando campanas. Todo lo que escuchamos son información en el formulario de la audiencia. Su valor para la supervivencia humana también es colosal. Después de todo, es la información de audio que le permite evaluar la parte del entorno que no se puede ver, tocar o intentar probar.
  3. Táctil. Este tipo de información está directamente relacionada con nuestra piel. La función de este tipo de percepción para la supervivencia también es muy importante: una persona puede, por ejemplo, sentir la temperatura del sujeto, al que toca, y su textura. Esto no nos ahorró una vez: esto estará de acuerdo con esto para probar la temperatura del quemador en la placa con la mano.
  4. Olfativo. Esta es la esfera de los olores. Son ellos los que nos ayudan a sentir el olor de la comida podrida o determinar lo que necesita para ingresar a la habitación. En realidad, el olor es una característica muy importante que ayudará no solo a no solo envenenar, sino también a comprender el valor nutricional de los alimentos.
  5. Sabor. Este tipo de información funciona en un par con una preocupación olfativa para la definición de alimentos. Según la lógica de nuestro cuerpo, todo es simple. La comida es deliciosa: significa que se puede comer.

Todo es muy simple. Estos son solo los cinco sentidos de los que hablamos en la escuela. Aquí otra vez los recordamos. Comprender qué tipos de información sobre el método de percepción existen, hace posible utilizar estos datos en la informática para garantizar la interacción más eficiente de una persona con una computadora. Y esto puede mejorar significativamente la calidad de nuestra vida en el futuro.

Ya hemos entendido qué son las fuentes de información. Los tipos de información sobre el método de percepción también se pospondieron en nuestra cabeza. Y ahora ha llegado una serie de analizando otra clasificación, en forma de presentación. ¿Qué es en absoluto? En realidad, esta es una imagen científica de la información de las fuentes. Este es un sistema de lo que hemos descrito anteriormente. Entonces, ¿cuáles son los tipos de información sobre la forma de la presentación?

  1. Texto. Este es el mismo libro o sitio web en internet.
  2. Numérico. Los números a veces pueden decir mucho más que palabras.
  3. Gráfico. Y la foto? Si es hermoso y hay muchos misterios en ella, ¿por qué una imagen simple en la pared no puede ser útil para una persona?
  4. Musical. Como ninguno de los dos están aquí, sino que todos aman la buena música. Sí, las presentaciones son diferentes. Pero en cualquier caso, la música es hermosa.
  5. Conjunto. Por ejemplo, un clip de música.

Estos son los tipos de percepción de la información por el hombre que conocemos.

conclusiones

Durante el tiempo de leer este artículo, entendiste mucho. Estos son los tipos de información sobre el método de percepción y la forma de la presentación. ¿Qué tan agradecido es el caso: comparta el flujo de información completo en las variedades? Tú decides por ti mismo. Cada persona debe tener su propia opinión. Es conocido exactamente una cosa, sin información, nuestra vida sería imposible. Y es obvio para todos.

Pregunta número 1.

El concepto de "información". La palabra "información" proviene de la palabra latín informatio, que en la traducción significa minimizar, aclaraciones, familiarización. El concepto de "información" es la informática básica, es imposible darle una definición a través de los otros conceptos "simples".

Propiedades de la información.

1. Propiedades de atributo- Estas son esas propiedades, sin las cuales la información no existe.

2. 2. Propiedades pragmáticas- Estas son aquellas propiedades que caracterizan la utilidad de la información para el usuario, el consumidor y la práctica. Manifiesto en el proceso de uso de información

3. 3. Propiedades dinámicas- Estas son aquellas propiedades que caracterizan el cambio en la información del tiempo.

Pregunta 2.

Clasificación de la información como parte integral del soporte de información de gestión, sin las cuales es imposible realizar actividades de gestión de manera efectiva y con prontitud. Categorías de clasificadores TECI y su estado (internacional, todo ruso)

Formas de transmisión de señales.

Los métodos de separación de canales usados \u200b\u200b(RK) se pueden clasificar en lineales y no lineales (combinacionales).

En la mayoría de los casos, la separación de los canales, cada fuente de mensajes se resalta en una señal especial, llamada canal. Mensajes por mensajes Se combinan señales del canal, lo que resulta en señal de grupo. Si el funcionamiento de la combinación lineal, entonces se llama la señal resultante señal de grupo lineal.

Para unificar los sistemas de comunicación multicanal para el canal principal o estándar. canal de frecuencia tonal (Canal PM), proporcionando mensajes con una banda de frecuencia transmitida de manera eficiente de 300 ... 3400 Hz, correspondiente al espectro principal de la señal telefónica.

Los sistemas de multicanal se forman combinando los canales de PM en grupos, generalmente múltiples canales. A su vez, a menudo use los canales de "sello secundario" de TC con canales de telégrafo y canales de datos.

Clasificación de la información. Formas de transmisiones de información.

La información se puede dividir en vistas de diferentes criterios:

1. En verdad: verdadero y falso;

2. Como método de percepción: visual - percibido por los organismos de visión: auditoría, percibidos por los cuerpos del tonto: el combustible, percibido por los receptores táctiles; Obligatorio - percibido por los contadores olfativos; receptores saborizantes percibidos por sabores.

3. Sobre la forma de representación.

Texto: transmitido en forma de símbolos, diseñado para denotar lexemes del lenguaje.

Numérico - en -video números y letreros que denotan las acciones matemáticas.

R Panic: en forma de imágenes, artículos, gráficos.

Sonido: oral o en forma de una grabación de la transmisión del audio del lenguaje de la banda.

4. Popular

MASS: contiene información trivial y opera con un conjunto de conceptos, comprensible la mayoría de la sociedad. Especial: contiene un conjunto específico de conceptos, cuando se usa J, la transferencia de información, que puede no entenderse por la mayor parte del grueso del Sociossecrete, transmitido por el círculo estrecho de individuos y por canales cerrados (protegidos).

Personal (privado) es un conjunto de información sobre cualquier personalidad que define la "situación social y los tipos de interacciones sociales dentro de la población.

5.El valor

Actual - información valiosa en este momento.

Fiable - información obtenida sin distorsión.

Clear - in (| la entidad legal expresada en el lenguaje de comprensible a quien se pretende.

Plena - información suficiente para tomar la decisión correcta o

comprensión. Útil: la utilidad de la información está determinada por el sujeto que recibió información, dependiendo de la cantidad de posibilidades de su uso.

Transferencia de información

La transmisión de información semántica se denomina proceso de su transferencia espacial de la fuente al destinatario (destinatario) "): los procesos de información deben usarse para transmitir información a largas distancias.

Para presentar información, se utilizan varios sistemas icónicos: conjuntos de símbolos semánticos pre-acordados: artículos, 1 imágenes escritas o impresas de idioma natural.

Presenté con su Ayuda Información semántica sobre cualquier objeto, un fenómeno o proceso se denomina mensaje, J es obvio que la información debe transferirse a cualquier medio móvil para transmitir el mensaje. Los medios pueden moverse en el espacio usando vehículos. Este método garantiza la precisión completa de la transferencia de información, ya que el destinatario recibe el mensaje original, sin embargo, requiere un tiempo considerable para transmitir. Desde mediados del siglo XIX, se distribuyó la información de la información que transmite la información; Use el portador de información de propagación naturalmente - Oscilaciones electromagnéticas (oscilaciones eléctricas, ondas de radio, luz). La implementación de estos métodos requiere: transferencia previa de la información contenida en el mensaje al portador: codificación de la transferencia de la señal así obtenida por la dirección del canal de comunicación especial: transformación inversa del código de señal en el código de mensaje: decodificación. Dispositivos que implementan el formulario de proceso de transferencia de datos, sistemas de comunicación. Dependiendo del método de presentación de información, el sistema de comunicación se puede dividir en el icónico (telégrafo, telégrafo, telefax), sonido (teléfono), video y sistemas combinados (televisión). El sistema de comunicación más desarrollado en nuestro tiempo es Internet.

Pregunta)

Recursos informativos - En un sentido amplio, el conjunto de datos organizados para obtener efectivamente información confiable.

Estos son libros, artículos, patentes, disertaciones, documentación de investigación y desarrollo, traducciones técnicas, datos sobre la experiencia industrial avanzada, etc.

Recursos de información (en contraste con todos los demás tipos de recursos: mano de obra, energía, mineral, etc.), más rápido crecen, cuanto más se consumen.

Los recursos están disponibles en reservas de acciones, medios que se pueden usar si es necesario. Actualmente, los científicos y las prácticas incluyen recursos informativos a importantes recursos estratégicos, en los que depende el desarrollo de la economía, la ciencia, la educación, la cultura, etc. Los primeros intentos de dar la definición de recursos de información se realizaron en los años 90 del siglo XX, cuando se formó el llamado "enfoque de recursos" para estudiar información. Se utiliza una comprensión estrecha y amplia de los recursos de información: solo los recursos de información de la red disponibles a través de comunicaciones de computadoras se utilizan comunicaciones en una comprensión estrecha, y en una amplia información que se fija en medios tradicionales o electrónicos es adecuado para ahorrar y distribuir.

Los recursos de información pueden ser diferentes especies: Etleto Media, Biblioteca, Internet. Los siguientes recursos de información se pueden vender con éxito a través de Internet:

Cintas de noticias (Noticias en línea). Por ejemplo, la cinta de las noticias financieras y políticas es vital para los comerciantes para tomar decisiones sobre ventas y compras en bolsas de valores;

Suscripciones para copias electrónicas de publicaciones periódicas. Algunos periódicos y revistas producen sus copias electrónicas completas y brindan acceso a ellos;

Acceso a archivos electrónicos y bases de datos que contienen información sobre los problemas más similares;

Informes analíticos e investigaciones;

Propios materiales analíticos y pronósticos.

Por categorías de acceso, los recursos de información pueden estar abiertos (públicamente disponibles) o con acceso limitado. A su vez, la información documentada con acceso limitado se divide en secretos públicos y confidencial.

Clasificación de los sistemas de información:

En un sentido amplio, el sistema de información tiene una combinación de soporte técnico, de software y organizativo, así como personal destinado a garantizar la información adecuada ("El sistema de información se llama complejo que comprende computación y equipo de comunicación, software, medios lingüísticos y recursos de información. , así como el personal del sistema y brindar apoyo a un modelo de información dinámica de alguna parte del mundo real para satisfacer las necesidades de información de los usuarios ").

En un sentido estrecho, el sistema de información es solo un subconjunto de componentes IP en un sentido amplio, incluidas las bases de datos, el sistema de administración de bases de datos (DBMS) y los programas de aplicación especializados. IP en un sentido estrecho se considera un sistema de software y hardware diseñado para automatizar actividades de usuario final dirigidas, proporcionando, de acuerdo con la lógica de procesamiento establecida en ella, la posibilidad de obtener, modificar y almacenar información.

La tarea essatisfacer las necesidades de información específica dentro de un área temática específica.

4. Debido a la prioridad incondicional del sistema de numeración binaria con una presentación interna de información en la computadora, los caracteres de codificación se basan en una comparación de cada uno de ellos un determinado grupo de signos binarios. La decodificación de codificación debe ser utilizada por códigos uniformes, es decir, Grupos binarios de igual longitud.

Resuelva la tarea más sencilla: tener, digamos, un código uniforme de los grupos por NORTE. Señales binarios como puede formar combinaciones de código diferentes. La respuesta es obvia. A \u003d 2 n. Así que NORTE. = 6 A \u003d 64 - obviamente no suficiente NORTE. = 7 A \u003d 128 - Bastante bastante.

Sin embargo, para codificar varios alfabetos naturales (al menos dos) (más todos los signos marcados) y esto no es suficiente. Minimamente suficiente importancia NORTE. En este caso, 8; Tener 256 combinaciones de símbolos binarios, es muy posible resolver la tarea especificada. Dado que 8 caracteres binarios representan 1 bytes, están hablando de los sistemas de codificación "byte".

En el canal de comunicación, un mensaje compilado de los símbolos (letras) de un alfabeto se puede transformar en un mensaje de los símbolos (letras) de otro alfabeto. La regla que describe la correspondencia inequívoca de las letras de los alfabetos se llama el código. El procedimiento para convertir el mensaje se llama transcodificación. Dicha conversión de mensajes se puede realizar en el momento de la recepción del mensaje de la fuente al canal de comunicación (codificación) y en el momento de recibir el mensaje por el destinatario (decodificación).

Pregunta número 5.

Notación - Método simbólico de números de grabación, representación de números utilizando signos escritos.

Notación:

§ da representaciones de una pluralidad de números (enteros y / o real);

§ da a cada número una representación única (o al menos una representación estándar);

§ Refleja la estructura algebraica y aritmética de los números.

§ Los sistemas de posicionamiento actuales más comunes son: decimal, octal y hexadecimal. Cada sistema posicional tiene un cierto alfabeto de números y base.

Sistemas numéricos

Sistema de número - Esta es una forma de representar e imágenes de números utilizando un conjunto estrictamente limitado de caracteres, cada uno de los cuales tiene ciertos valores cuantitativos. Los números en los sistemas numéricos se presentan utilizando algún conjunto de letreros. números , y su cantidad depende del sistema utilizado.

Reglas de aritmética no definitiva.- Operación sustraer En código binario se reemplaza por la operación. adiciones Con un número negativo, la adición de dos números positivos, positivos y negativos, negativos y positivos y positivos. En general, el funcionamiento de la adición, junto con la operación de cizallamiento, son los principales, porque Además de la resta, la multiplicación y las operaciones de la división de números binarios se reducen a ellos. División Los números binarios se producen como en un sistema de números decimales convencionales. En el primer paso, debe verificar la posibilidad de restar el divisor divisor (el resultado no debe ser negativo), si es posible en una particular, la unidad está escrita, de lo contrario, cero, y el divisor se desplaza a un dígito a la A la derecha en relación con la división. Luego, una división de descarga se demole y se repite el control. La marca de resultados se obtiene agregando como cuando se multiplica.

Indicador Generación EUM.
El primer 1951-1954 Segundo 1958-I960 Tercero 1965-1966. Cuatro ¿Quinto?
Y 1976-1979 B 1985-?
Procesador de base elemental Lámparas electrónicas Transistores Esquemas integrados (IP) Grande es (bis) Ultra-manos es (SBI) + Optoelectronics + cryoelectronics
Base elemental de RAM Tubos de haz de electrones Núcleos de ferrita Núcleos de ferrita BIS SBI SBI
Capacitación máxima de RAM, BYTE 10 2 10 1 10 4 10 5 10 7 10 8 (?)
Velocidad máxima del procesador (OP / S) 10 4 10 6 10 7 10 8 10 9 + multiprocesamiento 10 12, + multiprocesamiento
Lenguajes de programación Codigo de maquina + Ensamblador + Lenguas de alto procedimiento (Yava) + Nuevo YAV procesal + Yava no procedimiento + Nuevo Java Necrótico
Comunicación de usuario con EUM Panel de control y perforaciones. Perfacards y Puncts Terminal digital de alfanume Pantalla gráfica monocromática, teclado Color + Pantalla gráfica, teclado, "mouse", etc. Dispositivos de comunicación de voz EUM

En 1642, Pascal se cepilló en el mecanismo sumable de ocho bits. En 1820, el francés Charles de Colmar creó un aritmómetro capaz de producir multiplicación y división. Todas las ideas principales que subyacen al trabajo de las computadoras se establecieron en 1833 por el matemático inglés Charles Babbird. Desarrolló un proyecto de una máquina para realizar cálculos científicos y técnicos, donde se predijo los principales dispositivos de la computadora moderna, así como sus tareas. La gerencia ha existido programáticamente. Para la entrada y salida, se ofreció a usar tarjetas de perforación - hojas de papel grueso con información aplicada con agujeros. En 1888, el ingeniero estadounidense Herman Holelerite construyó la primera máquina de conteo electromecánica. Esta máquina, llamada Tabula, podría leer y ordenar los registros estadísticos codificados en los polos.

En febrero de 1944, en una de las empresas de la AI-BI-EM (IBM), en colaboración con científicos de la Universidad de Harvard, la Marca 1 fue creada para la Armada de los Estados Unidos. Era un monstruo que pesaba alrededor de 35 toneladas. En "Marcos 1", se utilizaron elementos mecánicos para representar números y electromecánicos, para controlar el funcionamiento de la máquina. Los números se mantuvieron en registros que consistían en ruedas de conteo de diez jubles. Cada registro contenía 24 ruedas, y 23 de ellos se utilizaron para representar el número (es decir, "Mark 1" podría "pulir" números de hasta 23 dígitos de largo), y uno para representar su signo. El registro tuvo un mecanismo para transferir decenas y, por lo tanto, se utilizó no solo para almacenar números en un registro, el número podría transferirse a otro registro y agregarse al número allí (o deducido de ella). En total, hubo 72 registros en "Marcos 1" y, además, la memoria adicional de 60 registros formados por interruptores mecánicos. En esta memoria adicional, se administraron constantes manualmente: números que no cambiaron durante el proceso de cálculo. Clasificación de la UE

super-EVM.- El sistema de computación más poderoso existente en el período histórico apropiado.

EUM grande. Más accesible que "super".

Miniordenador- Utilice la administración de procesos, o en modo de separación de tiempo como una pequeña máquina de control de red local.

Microordenador- Entre ellos asignar Multijugador, equipado con muchos terminales remotos y operando en modo de separación de tiempo; Incorporado, que puede controlar la máquina, cualquier subsistema de un automóvil u otro dispositivo (incluidos fines militares), siendo su pequeña parte.

estación de trabajo- Se utiliza en varios, a veces inconsistentes, de significado. Por lo tanto, la estación de trabajo puede ser una poderosa micro-computadora centrada en el trabajo especializado de un alto nivel profesional, que no se puede atribuir a computadoras personales, al menos debido a un costo muy alto.

8) Seguridad y reglas para la operación de dispositivos PC.

1.K El trabajo independiente en las PC se le permite a las personas no menores de 18 años,

examen médico pasado, capacitación especial, instrucción sobre protección laboral en el lugar de trabajo, que estudió el "Manual de operación" y los métodos y técnicas de trabajo seguros.

El personal se le permite trabajar en PCS mediante ajuste, la operación de PR-I debe:

· Obtenga instrucciones sobre la protección del trabajo;

· Familiarizarse con las normas generales de operación e instrucciones sobre la seguridad del trabajo en el "Manual";

· Confianza con las entradas de advertencia en portadas, paredes, paneles de bloques y dispositivos;

· Familiarizarse con las reglas de operación de equipos eléctricos.

2. La PC debe conectarse a una red monofásica con un voltaje normal 220 (120) en la frecuencia de 50 (60) Hz y neutro a tierra. Contactos de conexión a tierra Los sockets deben estar bien conectados al circuito de seguridad en interiores. La habitación debe instalarse un dispositivo automático de emergencia o conmutación de la interrupción total de energía.

3. Está prohibido reparar independientemente la PC (sus bloques), si no está incluida en el círculo de sus responsabilidades.

4. Cuando se opera las PC, se deben realizar los siguientes requisitos, las reglas:

· No conecte y no desconecte los conectores y los cables de alimentación eléctrica con el voltaje enviado de la red;

· No deje las PC incluido sin observación;

· No deje la PC incluido durante una tormenta eléctrica;

· Al finalizar el trabajo, apague la PC de la red;

· Los dispositivos deben estar ubicados a una distancia de 1 m de los dispositivos de calefacción; Los trabajos deben ubicarse entre sí a una distancia de al menos 1,5 metros;

· Los dispositivos no deben estar expuestos a la luz solar directa;

duración continua del trabajo Al ingresar datos en una PC no debe exceder las 4 horas en un día hábil de 8 horas, a través de cada hora de trabajo, es necesario tomar un descanso durante 5-10 minutos, después de 2 horas durante 15 minutos; en el interior donde El equipo informático está ubicado, debe estar equipado la extinción de incendios en esquina.

9. Un conjunto completo de software requerido para la organización, por ejemplo, el lugar de trabajo automatizado (AWP) del ingeniero de diseñadores, el científico (físico, químico, biólogo, etc.) en valor supera (a veces varias veces) el costo de una computadora Clase adecuada.

Todo tipo de software,

Los sistemas operativos son un conjunto de programas que proporcionan

Gestión de recursos, es decir,. el trabajo acordado de todos los hardware de la computadora;

Gestión de procesos, es decir,. Ejecución de programas, su interacción con dispositivos informáticos, con datos;

Interfaz de usuario, es decir, Diálogo de usuario con una computadora, realizando ciertos comandos simples: operaciones de procesamiento de información.

Sistemas de programación;

Software instrumental, paquetes integrados;

Programas de aplicación.

10. Los programas aplicados están diseñados para garantizar Equipo informático en varias esferas de actividad humana. Los desarrolladores de aplicaciones se dedican a mejorar y actualizar los sistemas populares. Nuevas versiones, soporte de antigüedad, mantenimiento de la continuidad e incluyen el mínimo básico (estándar) de posibilidades.

Una de las opciones posibles para clasificar las herramientas de software (PS) que conforman el software de la aplicación (PPO) se refleja en la FIG.2.11. Como casi cualquier clasificación, mostrada en la figura no es la única posible. Contiene incluso no todo tipo de aplicaciones. Sin embargo, el uso de la clasificación es útil para crear una idea general del PPO.

Figura 2. pag. Clasificación de la aplicación

12. Los sistemas operativos de computadoras personales impusieron una huella profunda. El concepto del sistema de archivos subyacente al sistema operativo UNIX. En el OS UNIX, el subsistema de E / S unifica el método de acceso a los archivos y dispositivos periféricos. Bajo el archivo, esto se entiende como un conjunto de datos en un disco, terminal o cualquier otro dispositivo. Por lo tanto, el sistema de archivos es un sistema de gestión de datos.

Los sistemas de archivos de sistemas operativos crean para los usuarios alguna representación virtual de dispositivos memorables externos, lo que le permite trabajar con ellos no en un nivel bajo, y en un alto nivel de conjuntos y estructuras de datos. El sistema de archivos se esconde de los programadores una imagen de la ubicación real de la información en la memoria externa, y también proporciona respuestas estándar a errores. Al trabajar con archivos, el usuario proporciona herramientas para crear nuevos archivos, leer operaciones y escribir información.

Ntfs El sistema de archivos estándar para la familia de los sistemas operativos de Microsoft Windows NT.NTFS ha reemplazado el sistema de archivos de grasa utilizado en MS-DOS y Microsoft Windows. NTFS admite el sistema de metadatos y utiliza estructuras de datos especializadas para almacenar información de archivos para mejorar la productividad, la confiabilidad y la eficiencia del espacio en disco. NTFS Tiendas Información de archivos en la tabla de archivos principales - Tabla de archivos maestros. NTFS tiene funciones incorporadas para distinguir el acceso a los datos de varios usuarios. Se utilizan múltiples versiones de las versiones M1YU2 en Windows NT 3.51 y Windows NT 4.0B M3U0 viene con Windows 2000b M3Y1 - con Windows XP

Gordo. La arquitectura del sistema de archivos clásico que se utiliza para las unidades flash y las tarjetas de memoria. El pasado reciente se usó en disquetes, en discos duros y otros medios. El tamaño de un archivo se limita a 4 GBDB Bill Gates y MacDonald ( inglés) En 1976-1977. Utilizado como el sistema de archivos principales en los sistemas operativos de las familias DOS y las ventanas. Hay tres versiones de grasa - Fat12, Gordo16 y FAT32.. Se distinguen por la descarga de registros en la estructura del disco, es decir, el número de bits establecidos para almacenar el número de clúster. FAT12 se usa principalmente para disquetes, FAT16 - Para discos de pequeños volúmenes. Se utiliza principalmente para las unidades flash.

11 Pregunta!)

1. La interfaz es una forma de comunicar a un usuario con una computadora personal, un usuario con programas y programas aplicados entre ellos. La interfaz se utiliza para la comodidad de administrar el software informático. Las interfaces son de una sola vía y multitarea, un solo usuario y multijugador. Las interfaces difieren entre sí en la conveniencia de administrar software, es decir, mediante el método de lanzamiento de programas. Hay interfaces universales que permiten que todas las formas de lanzar programas, como Windows 3.1, Windows-95. Ejemplo: Windows-95 tiene todos los métodos de inicio, incluidos le permite ejecutar programas utilizando el menú Botón de inicio.

2. Tipos de interfaces.

2.1. Interfaz de comando (texto).

Para administrar una computadora a la línea de comandos, se escribe (ingresado desde el teclado), por ejemplo, el nombre del archivo de comandos del programa o las palabras de servicio reservadas especialmente por el sistema operativo. El comando se puede editar si es necesario. Luego se presiona la tecla Intro para ejecutar el comando. Este tipo de interfaz como la principal tiene todas las variedades de sistemas operativos, como MS-DOS 6.22. Como medios adicionales, este tipo de interfaz tiene todo tipo de shells de software (Norton Commander, DOS Navigator, etc.) y Windows 3.1, Windows-95/98. La interfaz de comandos es incómoda, ya que es necesario recordar los nombres de muchos equipos, un error por escrito, incluso un símbolo no es válido. Rara vez se aplica en una sesión de trabajo directo con el sistema operativo o en caso de fallas cuando otros métodos son imposibles.

2.2. Interfaz gráfica de pantalla completa.

Toma, como regla general, en la parte superior de la pantalla, el sistema de menú con indicaciones. El menú a menudo se cae (cayendo). Para controlar la computadora, el cursor de la pantalla o el cursor del mouse después de la búsqueda en el árbol de directorios se instala en los archivos de comandos del programa (* .exe, * .com, * .bat) y para iniciar el programa, la tecla Intro o el mouse derecho. Se presiona el botón. Se pueden resaltar diferentes archivos en diferentes colores o tener un patrón diferente. Los catálogos (carpetas) están separados del tamaño de los archivos o el patrón.

Esta interfaz es la principal para todos los tipos de conchas de software. Ejemplo: Norton Commander y Shells tipo Norton (DOS Navigator, Windows Commander, Disk Commander). Dicha interfaz tiene las herramientas de Windows 3.1 (Administrador de archivos) y Windows-95/98 (mi computadora y mi explorador). Dicha interfaz es muy conveniente, especialmente cuando se trabaja con archivos, ya que proporciona una alta velocidad de operaciones. Le permite crear un menú personalizado, ejecute aplicaciones para expandir archivos, lo que aumenta la velocidad de trabajar con programas.

2.3. Interfaz pictográfica multi-color gráfico.

Es un escritorio (escritorio) en el que están mintiendo pictogramas (iconos o iconos de programas). Todas las operaciones están hechas, como regla general, ratón. Para controlar la computadora, el cursor del mouse se suministra al icono y inicie el programa haciendo clic en el botón izquierdo del ratón en el icono. Esta es la interfaz más conveniente y prometedora, especialmente cuando se trabaja con programas. Ejemplo: Apple Macintosh Interfaz de computadora, Windows 3.1, Windows-95/98, OS / 2.

Damos una breve descripción y la designación de algunos de los tipos más comunes de equipo de comunicación de interfaz / equipo de terminal (DCE / DTE).

V.24 es el puerto RS-232, COM equivalente, Puerto asíncrono (por cierto, puede funcionar en modo síncrono). Puerto de baja velocidad, aunque recientemente comenzó a aparecer placas base, capaz de operar a una velocidad de hasta 230,400 bits / s. Sus características se limitan a la presencia de un solo cable "tierra" y un alto nivel de unidades lógicas y cero - -3b y + 3V, respectivamente. Conector estándar - DB-25 o DB-9, enchufe el dispositivo terminal (DTE, computadora) y zócalo DB-25 en el dispositivo de comunicación (DCE, MODEM).

V.35: se desarrolló originalmente como un estándar para módems de alta velocidad, pero solo se tomó una interfaz DTE / DTE de alta velocidad del marco de esta norma. Tiene un bajo nivel de unidades lógicas y cero y líneas diferenciales.

Pregunta número 13.

13). Archivos, atributos. Formando nombres de archivos ...

archivo nombrado área en el medio de información. El archivo tiene un nombre de 1O 255. Los signos de puntuación no deben estar en nombre (excepto para Dash). A través de un punto, puede configurar el nombre del nombre que indica que el formato de archivo doc.exe inicia el archivo. Atributos Los siguientes archivos de características de archivo (solo lectura, oculta, sistema, archivado) son texto, binario, gráfico. Los nombres de los medios de datos están montados, como regla general, registradores de almacenamiento de marca.

Los informáticos utilizan la siguiente definición: archivo - Secuencia de bytes recibida.

Trabajar con archivos se implementa mediante sistemas operativos.

Los nombres como los archivos tienen y se procesan de una manera similar:

§ Áreas de datos (opcional en disco);

§ dispositivos (tanto físicos, puertos, por ejemplo; y virtual);

§ Corrientes de datos (canal nombrado);

§ Recursos de red, zócalos;

§ Objetos del sistema operativo.

Los primeros archivos de tipo históricamente surgieron primero y son más ampliamente, por lo que a menudo el archivo se llama el área de datos correspondiente al nombre.

Atributos

En algunos sistemas de archivos, como NTF, se proporcionan atributos (generalmente este valor binario "SÍ" / "NO" codificado por un bit). En muchos sistemas operativos modernos, los atributos prácticamente no afectan la capacidad de acceder a los archivos, ya que en algunos sistemas operativos y de archivos hay derechos de acceso.

Nombre del Atributo transferir valor Sistemas de archivos Os
Solo lectura solo para la lectura Al archivo está prohibido escribir DOS, OS / 2, Windows
Sistema. Sistémico Crítico para el archivo del sistema operativo FAT32, FAT12, FAT16, NTFS, HPFS, VFAT DOS, OS / 2, Windows
Oculto. oculto El archivo está oculto desde el programa, hasta que esté claramente indicado por lo contrario. FAT32, FAT12, FAT16, NTFS, HPFS, VFAT DOS, OS / 2, Windows
Archivo. Archivo (que requiere archivar) El archivo se cambia después de la copia de seguridad o no copieda por los programas de copia de seguridad. FAT32, FAT12, FAT16, NTFS, HPFS, VFAT DOS, OS / 2, Windows
Suid Instalación de ID de usuario Ejecución del programa en nombre del propietario. Ext2. Como unix.
Sgid. Instalación de ID de grupo Ejecución del programa en nombre de un grupo (para directorios: cualquier archivo creado en el directorio con el SGID instalado recibirá un grupo de propietario específico) Ext2. Como unix.
Bit pegajoso Bocado pegajoso inicialmente prescribió el kernel sin descargar el programa completado de la memoria de inmediato, sino solo después de un tiempo para evitar la carga constante desde el disco de los programas más utilizados, actualmente en diferentes OSS se utilizan de diferentes maneras Ext2. Como unix.

Formando nombres de archivos.

El archivo se denomina parte nombrada del disco duro o disquete flexible. Además, el archivo es un dispositivo lógico, una fuente potencial o un receptor de información. La longitud de cada archivo está limitada solo al contenedor del dispositivo de memoria externa de la computadora.
Nombres de archivo largos
La longitud máxima del nombre del archivo puede tener 255 caracteres, incluidos los espacios. Los símbolos se pueden utilizar en los nombres.
Cirílico y otros prohibidos en los símbolos DOS: /:. *? "< >
La longitud total de la ruta y el nombre del archivo no deben exceder los 260 caracteres (nombre de disco 2 símbolo + nombre del directorio / - 1 símbolo
+ Nombre del archivo: al menos 1 símbolo + punto de separación -1simvivo \u003d 5 + 255 \u003d 260).
Al crear un archivo, se asigna a 2 Nombre, largo y corto (de acuerdo con las reglas de DOS, en formato 8.3). El nombre corto está formado por las siguientes reglas:
1) Desde el nombre largo, se eliminan los espacios y prohíbidos en los símbolos de DOS. Para el nombre de 8 letras, los primeros 6 restantes
Los caracteres a los que se agrega el ~ ~ y el número de secuencia del archivo (entre archivos con los mismos caracteres iniciales). Xxxxxx ~
2) Para 3 letras del tipo, los primeros tres caracteres se utilizan después del último punto en el nombre largo.
Por ejemplo:
Nombre largo
Nombre corto
Microsoft Windows 95.BMP
Micros ~ 1.bmp
Microsoft Office.tmp
Micros ~ 2.tmp
Cursos Ivanova I.I..doc
Cursos ~ .doc.
La codificación universal Unicode asigna cada símbolo de 2 bytes. Windows usa esta codificación para almacenar nombres de archivos largos, así sucesivamente. Un nombre largo puede requerir hasta 500 bytes (255 caracteres a una longitud máxima). En DOS en la información del archivo del sistema FAT
(Nombre, tamaño, fecha y hora de creación) se almacena en un elemento de directorio de 32 bytes. En Windows, la información de archivo (nombre corto, tamaño, fecha y hora de creación) se almacena en el elemento de directorio habitual. El nombre largo y la fecha del último manejo se almacenan en los elementos del directorio adyacentes a la forma principal y etiquetada de una manera especial. Entonces Un archivo toma 2 elementos de directorio o más (21 en el caso de la longitud máxima: 1 - Normal (DOS), otros, para un nombre largo). Características:
1) El tamaño del catálogo aumenta, el tiempo de acceso, la probabilidad de fragmentación;
2) El directorio de disquete de raíz contiene 224 artículos. Entonces En el directorio raíz, un disquete puede ser de aproximadamente 10 archivos nombrados
Longitud máxima. Si se llenan todos los elementos, se emite un mensaje sobre una escasez de memoria, una escasez de espacio libre en el disco (incluso
Si hay espacio libre en el disco). Por lo tanto, es necesario presentar archivos por carpetas y no almacenarlos en el directorio raíz (excepto el servicio).

Tipos de archivos

En varios sistemas de operación y / o archivos, se pueden implementar varios tipos de archivos; Además, la implementación de varios tipos puede variar.

§ "Archivo ordinario": un archivo que permite leer, grabar, moverse dentro del archivo

§ Catálogo (ESP. directorio. - Directorio alfabético) o directorio: un archivo que contiene registros de archivos incluidos en ella. Los catálogos pueden contener registros sobre otros directorios, formando una estructura de árbol.

§ Enlace duro (ENG. enlace difícilFrecuentemente usado el cartucho "Hardlink"): en el caso general, la misma área de información puede tener varios nombres. Tales nombres se llaman referencias duras (Hardlinka). Después de crear hardlink para decir dónde está el archivo "real", y donde el enlace duro es imposible, ya que los nombres son iguales. El área de datos existe siempre que haya al menos uno de los nombres. Los hardgings son posibles solo en un medio físico.

Los medios electrónicos incluyen altavoces para una grabación única o múltiple (generalmente digital) Eléctricamente: CD-ROM, DVD-ROM, semiconductor (memoria flash, etc.), disquetes.

Tener una ventaja significativa sobre el papel (hojas, periódicos, revistas) en volumen y costo específico. Para el almacenamiento y proporcionar información operativa (de almacenamiento no a largo plazo): tiene una ventaja abrumadora, también hay oportunidades significativas para la provisión y en un formato de consumo conveniente (formato, clasificación). Desventaja: tamaño de pantalla pequeña (o peso significativo) y fragilidad de los dispositivos de lectores, dependencia de las fuentes de energía.

Actualmente, los medios electrónicos desplazan activamente el papel, en todas las ramas de la vida, lo que conduce a un ahorro importante de madera. Los menos son que para la lectura y para cada tipo y formato de los medios, es necesario corresponder a él.

[editar] Dispositivos de almacenamiento

Articulo principal:Dispositivo de memoria

Medios, junto con un mecanismo para grabar / leer información sobre ella ( dispositivo de lectura, dispositivo de lectura), llamada dispositivo de almacenamiento de información (además - unidad de informaciónSi proporciona una descarga de entrante ya disponible). Estos dispositivos se pueden basar en una variedad de principios de registro físico.

En algunos casos (para garantizar la lectura, con el portador de rareza, etc.), el portador de información se entrega al consumidor junto con el dispositivo de almacenamiento para leerlo.

Directorio raíz

El directorio, directa o indirectamente, incluidos todos los otros directorios y archivos del sistema de archivos se denomina root. Está indicado por el símbolo ". /" (Barra oblicua).

El camino hacia el archivo.

Para encontrar un archivo en una estructura de archivos jerárquicos, debe especificar la ruta al archivo. La ruta al archivo incluye el nombre del disco lógico "\\" y la secuencia de nombres adjuntos entre sí, en el último de los cuales se encuentra este archivo deseado.

Por ejemplo, la ruta a los archivos en la figura se puede escribir de modo que.

Teniendo en cuenta los problemas de determinar el concepto de "información"

1.1. Definición de información
1.2. Medida cuantitativa de la información (- cuál es el valor o la cantidad de información; - la fórmula de shannon; - bit and bytes; - Métodos de expertos para evaluar la información y la formación de nuevas medidas de información)
1.3. Clasificación de la información (- de acuerdo con el método de codificación; - sobre la esfera de ocurrencia; - según el método de transmisión y percepción; - por cita pública)
1.4. Propiedades de la información (- Propiedades de atributo de la información; - Propiedades pragmáticas de la información; - Propiedades dinámicas de la información)
2. ¿Qué es la informática?
2.1. Definición de informática
2.2. Los componentes principales (- informática teórica; - simeóticos; - cibernética; - Procesamiento analógico y digital de información)
2.3. Algunas definiciones.

Introducción

El problema de la enseñanza de la informática en la etapa inicial tanto en los calificaciones altas de las escuelas secundarias como en los primeros cursos de educación superior son numerosas disputas. Hasta hace poco, se consideró una de las tareas principales para familiarizarse con los equipos informáticos y la capacidad de programar en uno de los idiomas más simples (como una regla "Idioma algorítmico de la escuela", "Baysik" o "Pascal"). Tal orientación ha notado un sesgo hacia la programación. El aprendiz tiene una asociación de la palabra "informática" con la palabra "programación". En este manual metodológico, se intentó revelar los conceptos de informática e información para utilizar sus especialistas en direcciones humanitarias. Los alumnos deberían poder operar con la información de cualquier tipo: lingüístico, visual, musical. El manual les ayudará a comenzar a ganar habilidades de procesamiento y sistematización de información, orientación en redes de información.



1.1. Definición de información


El concepto de "información" se usa ampliamente en la vida habitual de una persona moderna, por lo que todos tienen una idea intuitiva de lo que es. Pero cuando la ciencia comienza a aplicar conceptos conocidos, los aclara, adaptándose a sus objetivos, limita el uso del término con un marco estricto de su aplicación en un campo científico específico. Por lo tanto, la física ha determinado el concepto de fuerza, y el término físico de la fuerza no es en absoluto lo que se entiende cuando dicen: el poder de la voluntad, o el poder de la mente. Al mismo tiempo, la ciencia, estudiando el fenómeno, expande la representación de una persona sobre él. Por lo tanto, por ejemplo, para la física, el concepto de fuerza, incluso limitado a su significado físico estricto, es mucho más rico y más informativo que para no desarme en la física. Así que el concepto de información, convirtiéndose en el tema de estudiar muchas ciencias, se especifica en cada uno de ellos y enriquecido. El concepto de información es uno de los principales en la ciencia moderna y, por lo tanto, no se puede determinar estrictamente a través de conceptos más simples. Solo puede referirse a varios aspectos de este concepto, explicar, ilustrar su significado. Las actividades de las personas están relacionadas con el procesamiento y uso de materiales, energía e información. En consecuencia, las disciplinas científicas y técnicas se desarrollaron, reflejando temas de ciencia de materiales, energía e informática. La importancia de la información en la vida de la sociedad está creciendo rápidamente, los métodos de trabajo con la información están cambiando, se amplía el alcance de la aplicación de nuevas tecnologías de la información. La complejidad del fenómeno de la información, su faceta múltiple, la amplitud del alcance de la aplicación y el rápido desarrollo se refleja en la aparición constante de las nuevas interpretaciones de los conceptos informáticos y de información. Por lo tanto, hay muchas definiciones del concepto de información, de la información filosófica más común: "La información es la reflexión del mundo real" a la información estrecha y práctica ", es toda la información que es el objeto de almacenamiento, transmisión y transformación. "


También damos una comparación alguna otra definición y características:


  1. Información (información) es el contenido del mensaje o la señal; Información considerada en el proceso de su transferencia o percepción, lo que permite expandir el conocimiento sobre el objeto de interés.

  2. La información es una de las esencias fundamentales del mundo que nos rodea (Acad. Pospelov).

  3. Información: inicialmente la información transmitida por una personas a otras personas orales, escritas o de alguna otra manera (EEB).

  4. La información es una variedad reflejada, es decir, violación de la monotonía.

  5. La información es una de las principales propiedades universales de la materia.

Por información, es necesario comprender los artículos y procesos de los artículos, pero su reflejo o mapeo en forma de números, fórmulas, descripciones, dibujos, símbolos, imágenes. La información en sí puede atribuirse al campo de las categorías abstractas como, por ejemplo, fórmulas matemáticas, pero el trabajo con él siempre está asociado con el uso de cualquier material y costos de energía. La información se almacena en las pinturas de roca de las personas antiguas en la piedra, en textos de libros sobre papel, en las pinturas en lienzo, en grabaciones de cinta musical en una cinta magnética, en los datos de la RAM de la computadora, en el ADN hereditario. Código en cada célula viva en la memoria de una persona en su cerebro, etc. Para su grabación, almacenamiento, procesamiento, distribución, necesitamos materiales (piedra, papel, lienzo, cinta magnética, portadores de datos electrónicos, etc.), así como energía, por ejemplo, para activar máquinas de impresión, crear clima artificial para almacenar arte visual Piezas maestras, combinaciones electrónicas de calculadora de pacientes, mantengan la operación de transmisores en estaciones de radio y televisión. Los éxitos en el desarrollo moderno de las tecnologías de la información se asocian principalmente con la creación de nuevos materiales que subyacen a los componentes electrónicos de las máquinas informáticas y las líneas de comunicación.


1.2. Medida cuantitativa de la información.


¿Cuál es la magnitud o cantidad de información?


Cada artículo o fenómeno está tratando de caracterizar, para compararlo con similares, su magnitud. No siempre es posible hacerlo fácil e inequívoco. Incluso las magnitudes de los artículos físicos se pueden estimar de diferentes maneras: por volumen, peso, masa, el número de componentes de sus elementos, el costo. Por lo tanto, por ejemplo, está claro que incluso en una pregunta simple: "¿Qué es más, un kilogramo GIRI o una bola de aire para niños?" - Puedes responder de diferentes maneras. El asunto es más difícil y multifacético y cuantas más características de este fenómeno, más difícil es difícil encontrarlo satisfactorio a todos los que están comprometidos en este fenómeno, la definición de su magnitud. De manera similar, la cantidad de información se puede medir de diferentes maneras: en las cantidades de libros, páginas, signos, metros de película, toneladas de materiales de archivo, kilobytes de la RAM de EMM, y también evalúan la percepción emocional de una persona, para el Beneficios recibidos de la posesión de información a los costos necesarios de procesamiento, sistematización de información, etc. Trate de evaluar dónde más información: En la Fórmula Enstein E \u003d MC2 subyacente a la física de la bomba de hidrógeno, en la imagen del "noveno eje" de Aivazovsky o en el programa de televisión diario "Noticias". Aparentemente, el más fácil de evaluar la cantidad de información sobre cuánto espacio es necesario para su almacenamiento, eligiendo una forma única de presentar y almacenar información. Con el desarrollo de la computadora, como una forma única fue la codificación de la información utilizando los números 1 y 0. La codificación aquí llamamos la información de reescritura de un método de presentación a otro. El número de posiciones (llamado binario), en el que solo hay 1 o 0 números necesarios para escribir directamente el mensaje, es uno de los criterios para la cantidad de información y se llama la cantidad de información en los bits. Para registrar un símbolo (letras, números, un espacio entre palabras, signos de puntuación) en la computadora, las 8 posiciones binarias se usan con mayor frecuencia, y esto se llama byte. Por lo tanto, la frase: "Blancanieves y los siete enanitos" consta de 21 letras (sin cotizaciones) y dos espacios entre las palabras y ocuparán en memoria de la computadora 23 bytes o 184 bits. Es posible no directo, sino un registro comprimido de información, es decir,. Codificándolo bits más pequeños. Esto se realiza mediante procesamiento especial y analizando la frecuencia de apariencia, ubicación y número de caracteres en el mensaje. En la práctica, una persona también aplica un mensaje de compresión basado en su significado. Por ejemplo, un mensaje largo en el volumen de 37 bytes "mil novecientos noventa y sexto año" se puede comprimir hasta cuatro caracteres "1996" por primera vez, como concepto científico, la información se ha aplicado en la ciencia de la biblioteca, Teoría del periodismo. Luego comenzó a considerar la ciencia en la codificación óptima de los mensajes y transferir información sobre los canales de comunicación técnica.


Fórmula shannon


Claude Elwood Shannon propuso la teoría de la información en 1948, que dio una definición estadística probabilística del concepto de la cantidad de información. Cada señal en la teoría de Shannon se atribuye a la probabilidad de su apariencia. Menos probabilidades de aparecer una señal, más información lleva a cabo para el consumidor. Shannon propuso la siguiente fórmula para medir el número de información:



I \u003d -s P i Log 2 P i



donde yo es la cantidad de información; P i es la probabilidad de la aparición de la señal I-TH;


N - El número de señales posibles.


La fórmula muestra la dependencia del número de información del número de eventos y sobre la probabilidad de estos eventos. La información es cero, si solo es posible un evento. Con un aumento en el número de eventos, aumenta la información. I \u003d 1 - Una unidad de información llamada "bit". El bit es la unidad principal de la información.


Bit and byte


La técnica es posible dos objetivos, que se codifican de la siguiente manera: el número uno "1" - "SÍ", "habilitado", "Actuales va" ... DIGIT CERO "0" - "No", "OFF", " La corriente no va ". Las figuras 1 y 0 son símbolos del sistema de cálculo icónico más simple. Cada signo o símbolo del sistema de cálculo binario contiene un bit de información. De particular importancia para medir el volumen de información simbólica tiene un byte especial. 1 byte \u003d 8 bits, que corresponde a ocho descargas de números binarios. ¿Por qué exactamente 8? Así que sucedió históricamente. La cantidad de información también se mide en derivados de bytes de unidades: Kribi, MB, MB y GB, solo el prefijo "K", "M" y "G", no significan, como en la física "Kilo", "Mega" y "Giga", aunque a menudo se llaman así. En la física "Kilo" significa 1000, y en la informática "K" significa 1024, ya que este número es más natural para las máquinas de computación. Están en el corazón de su uso aritmético número 2, ya que una persona en el corazón de su aritmética aplica el número 10. Por lo tanto, los números 10, 100, 100, etc. Cómodo para los humanos, y los números 2, 4, 8, 16 y, finalmente, el número 1024, que se obtiene multiplicando los dos diez veces, "conveniente" para una computadora.


1 kb (kb) \u003d 1024 byte \u003d 8192 bits


1 MB (MB) \u003d 1024 KBA \u003d 2 20 bytes \u003d 2 23 bits


1 GB (MB) \u003d 1024 MB \u003d 2 20 KBA \u003d 2 30 bytes \u003d 2 33 bits.


El número de información ingresada de esta manera no coincide con el concepto generalmente aceptado de la cantidad de información, como la importancia de la información recibida, pero se usa con éxito en la tecnología de computación y las comunicaciones.


Métodos de expertos para evaluar la información y la formación de nuevas medidas de información.


Dado que la información tiene una variedad de características, cuya importancia práctica en las diversas aplicaciones informáticas es diferente, entonces puede haber una medida única del número de información, conveniente en todos los casos. Por ejemplo, el número de medidas de información puede ser la complejidad del cálculo utilizando algún algoritmo universal. Cabe esperar que la penetración adicional de la informática en la dirección de la actividad humana, donde aún sea débil, incluido el arte, conduzca al desarrollo de nuevas definiciones científicas del número de información. Así que la percepción de la obra de arte que nos gusta, trae una sensación de llenar la nueva información que se desconoce previamente. No es un regalo, a menudo el efecto hecho en un hombre con un gran trabajo musical, un artista web, y a veces solo contemplando la naturaleza: montañas pintorescas, cielo profundo, - caracterizan la palabra "revelación". Por lo tanto, pueden aparecer las características del número de información que caracteriza su valor estético y artístico. Hasta que se crean definiciones simples y matemáticamente pronunciadas de la cantidad de una u otra propiedad de la información, las llamadas evaluaciones de expertos se utilizan para evaluar su magnitud, es decir, Conclusiones de especialistas en este campo. Dan sus estimaciones sobre la base de una experiencia personal, a menudo muy subjetiva. La comunicación profesional entre expertos y discusión creativa sobre el tema del análisis conduce al desarrollo de criterios de evaluación más o menos aceptados, que en última instancia pueden convertirse en la base para crear una medida formal, sin ambiguos, como un medidor estándar internacional. Ejemplos de la formación de medidas de información futuras, en sus diferentes manifestaciones, las siguientes evaluaciones de expertos y otros indicadores ya utilizados pueden ser:



puntos otorgados por los jueces de la competencia por la artisticalidad de la ejecución, por ejemplo, figura patinaje;
Revisiones de películas en la prensa con el grupo de bolas a su grado de interés para el trabajador de cine;

El costo de las obras de pintura;

Evaluación del trabajo de un científico en el número de artículos publicados;

Evaluación del trabajo de un científico en el número de referencias a su trabajo en las obras de otros científicos (índice de reformabilidad);

Los índices de popularidad de las obras musicales y sus artistas publicados en la prensa;

Calificaciones de los estudiantes expuestas por profesores universitarios.



Además de medir la cantidad de memoria en bits y bytes, la técnica también utiliza otras unidades que caracterizan la información con información:



el número de operaciones por segundo, que caracteriza la velocidad de la información de procesamiento por la máquina de computación;

el número de bytes o bit por segundo, caracterizando la velocidad de transferencia de información;

El número de signos por segundo caracterizando la velocidad de lectura, la marcación de textos o la velocidad del dispositivo de impresión.



1.3. Clasificación de la información


La información se puede dividir condicionalmente en varios tipos basados \u200b\u200ben este o iones de su propiedad o característica, por ejemplo, por el método de codificación, la esfera de la ocurrencia, el método de transmisión y percepción y cita pública, etc.


Según el método de codificación.


Por el método de codificación de un CIGAL, la información se puede dividir en analógico y digital. Señal analógica La información sobre el valor del parámetro de origen, que se informa en la información, está en forma de un valor de otro parámetro, que es la base física de la señal, su portador físico. Por ejemplo, las magnitudes de los ángulos de flecha de reloj son la base para la visualización de tiempo analógica. La altura de la columna Mercury en el termómetro es el parámetro que proporciona información de temperatura analógica. Cuanto mayor sea la longitud de la tabla en el termómetro, mayor será la temperatura. Para mostrar información en una señal analógica, todos los valores de parámetros intermedios del mínimo al máximo se utilizan, es decir, Teóricamente número infinitamente grande. La señal digital utiliza solo un número mínimo de dichos valores como una base física para la grabación y la información de transmisión, la mayoría de las veces solo dos. Por ejemplo, se utilizan dos estados del portador de señal física en el corazón de la información de la información en la computadora: voltaje eléctrico. Un estado: hay una tensión eléctrica, con condicionamiento condicional por unidad (1), otra, sin voltaje eléctrico, convencionalmente denotado por cero (0). Por lo tanto, para transmitir información sobre el valor del parámetro inicial, es necesario utilizar la presentación de datos en forma de una combinación de ceros y unidades, es decir, Vista digital. Curiosamente, las máquinas informáticas de una sola vez se desarrollaron y utilizaron, según la aritmética ternaria, ya que los estados principales de la tensión eléctrica toman naturalmente tres siguientes: 1) El voltaje es negativo, 2) El voltaje es cero, 3) el voltaje es positivo. Las obras científicas aún están pasando por alto tales máquinas y describen las ventajas de la aritmética ternaria. Ahora en lucha competitiva, los fabricantes de máquinas binarias ganaron. ¿Siempre será así? Presentamos algunos ejemplos de dispositivos digitales domésticos. El reloj electrónico con indicación digital proporciona información digital sobre el tiempo. La calculadora hace cálculos con datos digitales. El bloqueo mecánico con código digital también se puede llamar un dispositivo digital primitivo.


En la esfera de origen


En la aparición de información, la información se puede clasificar de la siguiente manera. La información que surge en la naturaleza inanimada se llama elemental, en el mundo de los animales y las plantas, biológicos, en la sociedad humana, social. En la naturaleza, vivo e inanimado, la información se lleva a cabo: color, luz, sombra, sonidos y olores. Como resultado de la combinación de color, luz y sombra, sonidos y olores, hay información estética. Junto con la información estética natural, ya que el resultado de actividades creativas de las personas surgió otra variedad de información: obras de arte. Además de la información estética, la información semántica se crea en la sociedad humana, como resultado del conocimiento de las leyes de la naturaleza, la sociedad, el pensamiento. La división de información sobre estética y semántica es obviamente muy condicional, simplemente es necesario comprender que su parte semántica puede prevalecer en una información y en otra estética.


Según el método de transferencia y percepción.


Según el método de transmisión y percepción, la información es habitual de la siguiente manera. La información transmitida en forma de imágenes y símbolos visibles se llama visual; transmitido por sonidos - auditoría; Sensaciones - Táctil; olores - gusto. La información percibida por los equipos de oficina y las computadoras se llama información orientada a la máquina. El número de información orientada a la máquina está aumentando constantemente debido al uso continuo de nuevas tecnologías de la información en diversas esferas de la vida humana.


Según la cita pública


Según la cita pública, la información se puede dividir en masa, especial y personal. La información masiva se divide a su vez a la socio-política, ordinaria y popular. La información especial se divide en industrial, técnica, administrativa y científica. La información técnica tiene las siguientes gradaciones:

Herramienta de máquina,

Ingeniería Mecánica

Instrumental ...

La información científica se divide en biológica, matemática, física ...


1.4. Propiedades de la información


La información tiene las siguientes propiedades:

Atributo;

Pragmático;

Dinámica.

Los atributos son aquellas propiedades, sin las cuales la información no existe. Las propiedades pragmáticas caracterizan el grado de utilidad de la información para el usuario, el consumidor y la práctica. Propiedades dinámicas caracterizan el cambio en la información del tiempo.


Propiedades de atributo de la información.


Información de emergencia de los medios físicos y la naturaleza del lenguaje de la información.


Las propiedades de atributos más importantes de la información son las propiedades de la integridad de la información de los medios físicos y la naturaleza del idioma de la información. Una de las áreas de informática más importantes como la ciencia es estudiar las características de los diversos medios e idiomas de información, el desarrollo de nuevos, más avanzados y modernos. Cabe señalar que aunque aunque la información y la integridad del transportista físico tienen una naturaleza lingüística, no se asocia con un idioma rígido con un idioma específico o un portador específico.


Discreción


Las siguientes propiedades de atributo de la información sobre las que desea prestar atención es la propiedad de discreción. La información contenida en la información, el conocimiento es discreto, es decir,. Caracterice los datos reales individuales, los patrones y las propiedades de los objetos estudiados que se distribuyen en forma de varios mensajes que consisten en una línea, color compuesto, letras, números, símbolos, signos.


Continuidad


La información tiene una propiedad para fusionarse con el ya fijo y acumulado anteriormente, contribuyendo así al desarrollo progresivo y la acumulación. Esta confirmación es confirmada por otra propiedad de atributo de la información: continuidad.


Propiedades pragmáticas de la información.


Significado y novedad


Las propiedades de información pragmática se manifiestan en el proceso de uso de la información. En primer lugar, esta categoría de propiedades tomará la existencia de significado y novedad de la información, que caracteriza el movimiento de información en las comunicaciones sociales y destacó la parte de ella, que es NOVA para el consumidor.


Utilidad


La información útil es la información que reduce la incertidumbre de la información sobre el objeto. La desinformación se considera como valores negativos de información útil. Se encuentra que el uso del término de la utilidad de la información describe qué influencia en el estado interno de la persona, su estado de ánimo, bienestar, finalmente, la salud tiene información entrante. En este sentido, la información útil o positiva es la que es felizmente percibida por una persona, contribuye a mejorar su bienestar, y la información negativa actúa inhibitivamente sobre la psique y el bienestar humano, puede llevar a un deterioro de la salud, un Ataque cardíaco, por ejemplo.


Valor


La próxima propiedad pragmática de la información es su valor. Es necesario prestar atención al valor de la información es diferente para varios consumidores y usuarios.


Acumulatividad


La propiedad de la acumulación caracteriza la acumulación y el almacenamiento de información.


Propiedades dinámicas de la información.


Propiedades dinámicas de la información, de la siguiente manera, caracterizan la dinámica del desarrollo de la información en el tiempo.


Un aumento en la información


En primer lugar, es necesario tener en cuenta la propiedad de crecimiento de la propiedad. El movimiento de información en las comunicaciones de información y su distribución y crecimiento constantes determinan la propiedad de múltiples propagaciones o repeticiones. Aunque la información depende de un idioma en particular y de un portador específico, no está asociado con un idioma rígido con un idioma específico con ningún portador específico. Debido a esto, la información puede ser obtenida y utilizada por varios consumidores. Esta es una propiedad de uso múltiple y la manifestación de la dispersión de información en varias fuentes.


Envejecimiento


Entre las propiedades dinámicas, también es necesario tener en cuenta el carácter de la información de envejecimiento.


2. ¿Qué es la informática?


2.1. Definición de informática


Hace mucho tiempo, la informática entendió la disciplina científica que estudia la estructura y las propiedades generales de la información científica, así como los patrones de todos los procesos de comunicación científica, desde los procesos informales de intercambio de información científica con la comunicación oral y escrita inmediata de los científicos. y especialistas a procesos de intercambio formal a través de la literatura científica. Esta comprensión fue cercana a la "ciencia de la biblioteca", "reserva". El concepto de "informática" a veces se desempeñó como el término "documentación", el rápido desarrollo de la tecnología de computación cambió el concepto de "informática", lo que le da un significado significativo mucho más dirigido a las técnicas de computación. Por lo tanto, todavía hay diferentes interpretaciones de este término. En Estados Unidos, como análogo a la comprensión europea de la informática, se aplica el término "ciencias de la computación": la ciencia de las computadoras. Cerca del concepto de informática es el término "Systemotechnics", por lo que también se administra los diccionarios que también se traducen "Ciencias de la computación". La informática es una ciencia que estudia todos los aspectos de la obtención, almacenamiento, transformación, transferencias y uso de información.


2.2. Componentes principales


Los componentes de esta ciencia son: informática teórica, simeótica, cibernética. Prácticamente se implementa informatics en la tecnología de programación y evisorización.


Informática teórica


Informática teórica es una base para la construcción de informática general. Esta disciplina se dedica a la construcción de modelos, la construcción de conjuntos discretos que describen estos modelos. Una parte integral de la informática teórica es lógica. Lógica: un conjunto de reglas que están sujetas al proceso de pensamiento. Estudios de lógica matemática Conexiones lógicas y relaciones subyacentes a una salida deductiva (lógica).


Simeomóticos


Simeomóticos explora los sistemas icónicos que conforman los signos: pueden tener la naturaleza más diversa, solo se pueden distinguir tres componentes relacionados con las relaciones contractuales: la sintaxis (o el plan de expresión), la semántica (o los valores) y la pragmatática (o el uso del plan). Simeomóticos le permite establecer analogías en el funcionamiento de varios sistemas de origen natural y artificial. Sus resultados se utilizan en lingüística informática, inteligencia artificial, psicología y otras ciencias.


Cibernética


CyberNetics surgió a fines de los años 40, cuando N. Viner presentó la idea de que las reglas para la gestión de sistemas vivos, sin vida y artificiales tienen muchas características comunes. La relevancia de los hallazgos de N. viner fue apoyada por el surgimiento de las primeras computadoras. La cibernética de hoy puede considerarse como la dirección de la informática, considerando la creación y el uso de sistemas automatizados para controlar diversos grados de complejidad.


Procesamiento analógico y de información digital.


Informática, como ciencia en la información de procesamiento, se implementa en el procesamiento analógico y digital de la información. El procesamiento analógico de la información incluye acciones directas con color, luz, forma, línea, etc. Mire el mundo a través de gafas rosadas (literalmente) es el procesamiento analógico de la información visual. Los dispositivos de computación analógica son posibles. Fueron ampliamente utilizados anteriormente en técnica y automatización. El ejemplo más simple de dicho dispositivo es el gobernante logarítmico. Anteriormente, en las escuelas, se les enseñó a usarlo para producir multiplicaciones y divisiones y siempre estuvo a mano de cualquier ingeniero. Ahora fue reemplazado por dispositivos digitales: calculadoras. Procesamiento digital, la información generalmente entiende la acción con información a través de la computación digital. Actualmente, los métodos analógicos tradicionales para la grabación de información de sonido y televisión se reemplazan por métodos digitales, pero aún no se han generalizado. Sin embargo, estamos utilizando cada vez más dispositivos digitales para administrar dispositivos "analógicos" tradicionales. Por ejemplo, las señales alimentadas desde el dispositivo portátil de control del televisor o VCR son digitales. Las escalas que aparecen en las tiendas, destacados el peso y el costo de compra, también son digitales. Las formas naturales de mostrar y procesar información en la naturaleza son analógicas. Una impresión de rastro animal es una señal analógica de un animal. Creek es una forma analográfica de transmitir el estado interno: el más fuerte, cuanto más fuerte es el sentimiento. Los procesos físicos realizan el procesamiento analógico de señales en los órganos sensoriales: enfocando la imagen en la retina del globo ocular, el análisis espectral de los sonidos en el caracol oríaco. Los sistemas de procesamiento de señales analógicas son más rápidas que las funciones digitales, pero realizan funciones estrechas, poco reconstruidas para nuevas operaciones. Por lo tanto, ahora las computadoras numéricas se desarrollaron tan rápidamente. Son universales y le permiten procesar no solo numéricos, sino también cualquier otra información: texto, gráfico, sonido. Las computadoras digitales pueden recibir información de fuentes analógicas utilizando dispositivos especiales: convertidores analógicos a digital. Además, la información después de su procesamiento en la computadora digital se puede traducir en forma analógica en dispositivos especiales: convertidores analógicos digitales. Por lo tanto, las computadoras digitales modernas pueden hablar, sintetizar música, dibujar, administrar una máquina o una máquina. Pero puede que no sea tan notable para todos como computadoras digitales, pero se desarrollan los sistemas de procesamiento de información analógica. Y algunos de los dispositivos de procesamiento de información analógica aún no han encontrado y aparentemente en un futuro próximo, no se encontrarán un reemplazo digital decente. Tal dispositivo, por ejemplo, es la lente de la cámara. Es probable que el futuro de la tecnología detrás de los llamados dispositivos analógicos a digital utilizando los beneficios de aquellos y otros. Los sentidos emergentes, el sistema nervioso y el pensamiento también se construyen por naturaleza tanto en base analógica como digital. Al diseñar un sistema de máquinas de hombre, es importante tener en cuenta las características de una persona para percibir un tipo de información en particular. Al leer los textos, por ejemplo, una persona percibe 16 bits en 1 segundo, mientras sostiene 160 bits al mismo tiempo. Diseño conveniente En la cabina de avión, en el panel de control de un sistema complejo, facilita enormemente el trabajo humano, aumenta la profundidad de su conciencia del estado actual del objeto administrado, afecta la velocidad y la eficiencia de las decisiones tomadas.


2.3. Algunas definiciones.


La ciencia es un alcance social de crear y usar información como conocimiento del mundo objetivo del hombre.


El arte es actividades sociales para crear y usar fuentes de información que afecten a la primera de todas para sentimientos en la segunda conciencia.


Creatividad - Fabricación de nueva información por parte de una persona. La pedagogía es la organización del proceso de información asociado con el máximo aprendizaje de la información.


La capacitación es la transferencia de información para adquirir conocimientos y habilidades.

Literatura

1. Informática. Diccionario enciclopédico para principiantes. Ed. D.A.POZOSRELOVA - M. PEDAGOGIC-Press, 1994


2. Ya.L.L.SHRAIBURG, M.V. Balov: Guía de referencia sobre los conceptos básicos de los equipos informáticos y de computación: M. Finance y Estadísticas, 1995


3. Informática y cultura. Colección de papeles científicos. - Novosibirsk, ciencia, sucursal siberiana, 1990


4. D.I. Blyumenu - Servicio de información e información - Leningrado, Ciencia, 1989


5. Tecnología de la información: problemas de desarrollo y aplicación. - Kiev.: Nauk.domka, 1988


6. El concepto de informatización de la educación // informática y educación. - 1990 - N1


7. El Diccionario Terminológico de los Conceptos básicos de Informática y Equipos de Computación / A.P.PERSHOB et al.; Ed. A.p. hershova, n.m.shansky. - M.: Iluminación, 1991.-159 p.


8. Zavarykin v.m. y otros. Fundamentos de la tecnología informática y la tecnología de computación: estudios. Manual para estudiantes PED. In-TV en la estera física. Especificación: M.: Iluminación, 1989.-207 p.


9. Enciclopedia de la cibernética. - La oficina editorial principal de la enciclopedia soviética ucraniana. Kiev, 1974.


Goncharenko elena alexandrovna
Znamensky Vasily Serafimovic


ONG CBD
Diseño de la universidad nalchik
Nalchik-1996.


La información es información sobre cualquier cosa.

Concepto y tipos de información, transmisión y procesamiento, búsqueda y almacenamiento de información

La información es la definición

La información esalguna inteligencia, aceptado y transmitido, almacenado por varias fuentes. - Este es todo el conjunto de información sobre el mundo que nos rodea, sobre todo tipo de procesos que se producen en ella que pueden ser percibidos por organismos vivos, máquinas electrónicas y otros sistemas de información.

- esto es Información significativa sobre algo, cuando la forma de su presentación también es información, es decir, tiene una función de formato de acuerdo con su propia naturaleza.

La información estodo lo que nuestros conocimientos y suposiciones pueden ser complementados.

La información es Por algo, independientemente de la forma de su presentación.

La información es Mental cualquier organismo psicofísico producido por ello cuando se usa cualquier medio llamado los medios de información.

La información esinformación percibida por el hombre y (o) especiales. dispositivos como un reflejo de los hechos del mundo material o espiritual en proceso Comunicaciones.

La información es Datos organizados de tal manera que tenga sentido tener a una persona con ellos.

La información es El valor adjunto a la persona en datos sobre la base de los acuerdos conocidos utilizados para su presentación.

La información es Información, explicaciones, presentación.

La información es Cualquier información o información que esté interesada en cualquiera.

La información esinformación sobre los objetos y fenómenos del medio ambiente, sus parámetros, propiedades y condición de que los sistemas de información perciben (organismos vivos, máquinas de control, etc.) en proceso Vida y trabajo.

El mismo mensaje informativo (artículo en el periódico, anuncio, carta, telegrama, certificado, historia, dibujo, transmisión de radio, etc.) puede contener una cantidad diferente de información para diferentes personas, dependiendo de su conocimiento anterior, desde el nivel de comprensión. De estos mensajes e interés en ello.

En los casos en que hablan automatizados. trabaja Con la información a través de cualquier dispositivo técnico, no está interesado en el mensaje que no contiene el mensaje, pero cuántos caracteres contiene este mensaje.

Información (información) es

En relación con el procesamiento de la computadora, se entiende que los datos entienden alguna secuencia de designaciones simbólicas (letras, números, imágenes gráficas codificadas y sonidos, etc.), que llevan la carga semántica y el formulario presentado en una computadora clara. Cada nuevo carácter en tal secuencia de caracteres aumenta el volumen de información del mensaje.

Actualmente, no hay una definición única de información como un término científico. Desde el punto de vista de varias áreas de conocimiento, este concepto se describe en su conjunto específico de características. Por ejemplo, el concepto de "información" es la informática básica, y es imposible darle una definición a través de los otros conceptos "simples" simples (también en geometría, por ejemplo, es imposible expresar el contenido de lo básico Conceptos "punto", "directo", "plano" a través de conceptos más simples).

El contenido de los conceptos principales y básicos en cualquier ciencia debe explicarse sobre los ejemplos o detectados por su comparación con el contenido de otros conceptos. En el caso del concepto de "información", el problema de su definición es aún más complicado, ya que es un concepto científico general. Este concepto se utiliza en varias ciencias (informática, cibernética, biología, física, etc.), mientras que en cada ciencia el concepto de "información" se asocia con diversos sistemas de conceptos.

El concepto de información

En la ciencia moderna hay dos tipos de información:

La información objetiva (primaria) es la propiedad de los objetos materiales y los fenómenos (procesos) para generar una diversidad de estados que son transmitidos por otros objetos por interacciones (interacciones fundamentales) e imprimidas en su estructura.

La información subjetiva (semántica, significativa, secundaria) es el contenido semántico de la información objetiva sobre objetos y procesos del mundo material, formado por la conciencia de una persona con la ayuda de imágenes semánticas (palabras, imágenes y sensaciones) y registrado en cualquier material. transportador.

En la información de significado nacional, la información es información sobre el medio ambiente y los procesos que se producen en ella, percibidos por una persona o dispositivo especial.

Actualmente, no hay una definición única de información como un término científico. Desde el punto de vista de varias áreas de conocimiento, este concepto se describe en su conjunto específico de características. Según el concepto de K. Shannon, la información es la incertidumbre filmada, es decir,. La información que debe levantarse en un grado u otro por los comprados antes de recibir la incertidumbre, para ampliar su comprensión del objeto con información útil.

Desde el punto de vista de Gregory Hormigón, una unidad elemental de información es "distinción no indiferente" o una diferencia efectiva para un mayor sistema de percepción. Esas diferencias que no se perciben, él llama "potencial" y percibido, "efectivo". "La información consiste en diferencias no indiferentes" (c) "cualquier percepción de la información con la necesidad de obtener información sobre la diferencia". Desde el punto de vista de la informática, la información tiene una serie de propiedades fundamentales: novedad, relevancia, precisión, objetividad, integridad, valor, etc. El análisis de la información está comprometido, en primer lugar, la lógica de la ciencia. La palabra "información" proviene de la palabra latín informatio, que traduce cambios, aclaraciones, familiarización. El concepto de información fue considerado por los filósofos de los novios.

Información (información) es

Antes del inicio de la Revolución Industrial, la definición de la esencia de la información seguía siendo prerrogativa de los filósofos predominantemente. Al otro lado de considerar, los problemas de la teoría de la información se han vuelto nuevos en ese momento cibernética científica.

A veces, para comprender la esencia de algún concepto, es útil analizar el significado de la palabra que se indica este concepto. La aclaración de la forma interna de la palabra y el estudio de la historia de su uso puede derramar luz inesperada en su significado, eclipsado por el uso habitual "tecnológico" de esta palabra y connotaciones modernas.

La información de la palabra ingresó al idioma ruso a la era de Petrovsk. Primero registrado en la "Regulación espiritual" de 1721 en el significado "Presentación, el concepto de algo". (En idiomas europeos, se ha arreglado anteriormente, cerca del siglo XIV).

Información (información) es

Sobre la base de esta etimología, la información puede considerarse cualquier cambio significativo en el formulario o, en otras palabras, cualquier huella registrada materialmente formada por la interacción de objetos o fuerzas y susceptibles de comprensión. La información es, por lo tanto, la forma transformada de energía. El portador de información es un signo y el método de su existencia - interpretación: identificación del valor del signo o secuencia de signos.

El evento puede ser reconstruido por el signo, sirvió como causa de su ocurrencia (en el caso de los signos "naturales" e involuntarios, como los rastros, la evidencia, etc.), o un mensaje (en caso de signos convencionales inherentes en la esfera del lenguaje). Es el segundo tipo de signos que conforman el cuerpo de la cultura humana, que, de acuerdo con una de las definiciones, hay una "totalidad de no la información de transmisión auricular".

Información (información) es

Los mensajes pueden contener información sobre los hechos o la interpretación de los hechos (de los Lats. Interpretación, interpretación, traducción).

Una criatura viva recibe información con la ayuda de los sentidos, así como a través de la reflexión o la intuición. El intercambio de información entre los sujetos es la comunicación o la comunicación (de la Lat. Communicatio, Mensaje, Transmisión, Derivado, a su vez de Lat. Communico, DO General, Informe, Talk, Connect).

Desde un punto de vista práctico, la información siempre se presenta en forma de un mensaje. Un mensaje de información está asociado con un canal de origen, destinatario y comunicación.

Volviendo a la etimología latina de la información de la palabra, intentemos responder la pregunta de lo que se adjunta exactamente la forma aquí.

Es obvio que, primero, algún significado, que, que se está volviendo inicialmente y no seleccionado, existe solo potencialmente y debe ser "construido" para ser percibido y transmitido.

En segundo lugar, la mente humana, que se cruta para pensar estructuralmente y clara. En tercer lugar, una sociedad, que se debe al hecho de que sus miembros comparten estos significados y los usan conjuntamente, adquieren unidad y funcionalidad.

Información (información) es

la información como un significado razonable pronunciado es el conocimiento que se puede almacenar, transmitir y ser la base para generar otro conocimiento. Las formas de conservación del conocimiento (memoria histórica) son diversas: de mitos, crónicas y pirámides a bibliotecas, museos y bases de datos informáticas.

Información: información sobre el mundo que nos rodea, los procesos que fluyen en ella que perciben los organismos vivos, gerente Máquinas y otros sistemas de información.

La palabra "información" latina. Durante una larga vida, su importancia ha sufrido evolución, se está expandiendo, luego estrechando extremadamente sus fronteras. Al principio, bajo la palabra "Información" implícita: "Ver", "Concepto", luego "Información", "Transferencia de mensajes".

En los últimos años, los científicos han decidido que el significado habitual (todo adoptado) de la palabra "información" es demasiado elástica, vaga y le dio tal valor: "Medida de certeza en el mensaje".

Información (información) es

Teoría de la información causó la necesidad de práctica. Su apariencia está asociada con trabaja Claude Shannon "Teoría de la comunicación matemática" publicada en 1946. Los fundamentos de la teoría de la información se basan en los resultados obtenidos por muchos científicos. En la segunda mitad del siglo XX, el globo zumbó de la información transmitida que se ejecutó en los cables de telefonía y telégrafos y canales de radio. Más tarde, aparecieron máquinas de computación electrónica: procesadores de información. Y, en ese momento, la tarea principal de la teoría de la información fue, en primer lugar, mejorando la eficiencia de los sistemas de comunicación. La complejidad en el diseño y operación de fondos, sistemas y canales de comunicación es que el diseño e ingeniero no es suficiente para resolver la tarea de los elementos físicos y energéticos. A partir de estos puntos de vista, el sistema puede ser el más perfecto y económico. Pero es importante cuando cree sistemas de transmisión para prestar atención a la cantidad de información que pasará a través de este sistema de transmisión. Después de todo, la información se puede medir cuantificar, calcular. Y vienen con cálculos similares como la forma habitual: resúmenes del significado del mensaje, como la concreción en la acción aritmética habitual que estamos familiarizados (a partir de la adición de dos manzanas y tres manzanas, van a la adición de números en general: 2 + 3).

Los científicos declararon que eran "completamente ignorados la evaluación humana de la información". Fila secuencial de 100 letras, por ejemplo, atribuyen un cierto valor de la información, no prestando atención, ya sea que esta información tenga el significado y, a su vez, el significado es práctico. El enfoque cuantitativo es la rama más desarrollada de la teoría de la información. De acuerdo con esta definición, una combinación de 100 letras, la frase de 100 letras del periódico, las piezas de Shakespeare o el teorema de Einstein, tiene exactamente la misma cantidad de información.

Dicha definición de la cantidad de información es altamente útil y práctica. Se corresponde exactamente con la tarea del ingeniero de comunicación, que debe transferir toda la información contenida en el telegrama archivado, independientemente del valor de esta información para el destinatario. El canal de comunicación es sin alma. El sistema de transmisión es importante: transferir la cantidad de información deseada durante un tiempo determinado. ¿Cómo calcular el número de información en un mensaje en particular?

Información (información) es

La evaluación de la cantidad de información se basa en las leyes de la teoría de la probabilidad, más precisamente, se determina a través de probabilidad eventos. Esto es comprensible. El mensaje es valor, lleva información solo cuando aprendemos de ella sobre el resultado de un evento aleatorio cuando de repente es inesperado. Después de todo, ninguna información no contiene ninguna información. Esos. Si usted, digamos, alguien llamará a los aparatos telefónicos y dirá: "Por la tarde, es ligero, y en la noche oscura", entonces un mensaje de este tipo le sorprenderá solo con el absurdo de lo obvio y conocido, y no La noticia que contiene. Otros asuntos, por ejemplo, el resultado de la carrera en las carreras. ¿Quién vendrá primero? El resultado es difícil de predecir aquí. El evento que nos interesa tiene resultados aleatorios, más valioso es el mensaje de su resultado, más información. Un mensaje sobre un evento que solo dos resultados igualmente posibles contienen una unidad de información llamada bit. La elección de las unidades de información no es accidental. Está asociado con el método binario más común de su codificación durante la transmisión y el procesamiento. Intentaremos al menos en la forma más simplificada para imaginar que el principio general de la evaluación cuantitativa de la información, que es la piedra angular de toda la teoría de la información.

Ya sabemos que la cantidad de información depende de probables Estos u otros resultados de eventos. Si el evento, como dicen los científicos, tiene dos resultados equivalentes, esto significa que cada resultado es 1/2. Tal es la probabilidad de la caída del "Águila" o "plato" al lanzar una moneda. Si el evento tiene tres resultados equivalentes, la probabilidad de cada uno es igual a 1/3. AVISO, la cantidad de probabilidades de todos los resultados es siempre igual a uno: porque algunos de todos los resultados posibles tendrán que venir. El evento, como usted entiende, puede tener resultados de no equilibrio. Entonces, con un partido de fútbol entre equipos fuertes y débiles, la probabilidad de victoria para un equipo fuerte es grande, por ejemplo, 4/5. No menos de 3/20. La probabilidad de la misma lesión es completamente pequeña.

Resulta que la cantidad de información es una medida para reducir la incertidumbre de alguna situación. Se transmiten diferentes cantidades de información sobre los canales de comunicación, y el número de información que pasa a través del canal no puede ser mayor que su ancho de banda. Y está determinado por la cantidad de información que pasa aquí por unidad de tiempo. Uno de los héroes de la novela Jules es la verdadera "isla misteriosa", un periodista Gideon Spielletlet, aprobó conjunto de teléfono El capítulo de la Biblia para que sus competidores no puedan usar la conexión telefónica. En este caso, el canal se cargó completamente, y la cantidad de información fue igual a cero, porque el suscriptor se transfirió a la información conocida por ello. Por lo tanto, el canal trabajó duro, habiendo perdido un número estrictamente definido de pulsos, sin cargarlos. Mientras tanto, cuanto más información hace cada uno de los números específicos de pulsos, el ancho de banda de canal más utilizado. Por lo tanto, es necesario codificar razonablemente información, encontrar un lenguaje económico y tacaño para enviar mensajes.

La información "tamiza" la manera más completa. En telégrafo, letras frecuentes, combinaciones de letras, incluso frases completas representan un conjunto más corto de ceros y unidades, y aquellos que son menos comunes, más largos. En el caso, cuando reduce la longitud de la palabra Código para caracteres y aumentos frecuentes para que rara vez se encuentran, están hablando de la codificación efectiva de la información. Pero en la práctica, a menudo sucede que el código que ocurrió como resultado del código de "tamizado" más cuidadoso, el código es conveniente y económico, puede distorsionar el mensaje debido a la interferencia, que siempre es, en desafortunadamente, hay en canales de Comunicación: Distorsión de sonido en el teléfono, interferencia atmosférica en, distorsión o regulador de imágenes en televisión, errores cuando se transfieren a telégrafo. Estas interferencias, o, a medida que se llaman a expertos, los ruidos, cayeron en la información. Y estas son las sorpresas más increíbles y, naturalmente, desagradables.

Por lo tanto, para aumentar la confiabilidad en la información de transmisión y procesamiento, debe introducir símbolos innecesarios, un tipo de protección contra la distorsión. Son estos caracteres innecesarios, no lleven un contenido válido en el mensaje, son redundantes. Desde el punto de vista de la teoría de la información, todo lo que hace que un lenguaje sea colorido, flexible, tonos ricos, multidimensional, multivida, es redundancia. ¡Cómo excesivamente de tales posiciones, la carta de Tatyana a Onegin! ¿Cuántos excesos informativos en él por un informe breve y todo comprensible "Te amo"? Y cómo las designaciones dibujadas a mano precisas informativas, comprensibles para todos y todos, que se incluyen en el metro de hoy, donde, en lugar de palabras y frases de los anuncios, colgar signos simbólicos laconicos que indican: "Iniciar sesión", "Salir".

En este sentido, es útil recordar la anécdota, contada por el famoso científico estadounidense Benjamen Franklin, sobre el sombrero, invitando a sus amigos a discutir el signo del letrero. No dibujó un sombrero en un letrero y escribe: "John Thompson, un sombrero, hace y vende sombreros por dinero en efectivo ". Uno de los amigos notó que las palabras "por dinero en efectivo. dinero»Son innecesarios, un recordatorio de este tipo será ofensivo para comprador. Otro también encontré una palabra en exceso "vende", ya que debe entenderse que el sombrero está vendiendo sombreros, y no les da el regalo. El tercero parecía que las palabras "sombrero" y "hacen sombreros" son una tautología innecesaria, y las últimas palabras fueron arrojadas. El cuarto sugerido arrojando la palabra "sombrero": el sombrero dibujado dice claramente quien John Thompson. Finalmente, la quinta aseguró que para comprador Es absolutamente indiferente si el sombrero se llamará John Thompson o de otra manera, y sugerido que lo sugieren sin esta instrucción. En el sentido, al final, nada permanece en el signo, excepto los sombreros. Por supuesto, si las personas solo habían disfrutado de tales códigos, sin redundancia en los mensajes, todas las "formas informativas": libros, informes, artículos serían extremadamente breves. Pero perdería en polvo y belleza.

La información se puede dividir en vistas de diferentes criterios: Por la verdad: Verdadero y falso;

a modo de percepción:

Visual - percibido por las agencias de visión;

Auditor - percibido por las autoridades auditivas;

Táctil - percibido por receptores táctiles;

Olfativo - percibido por los receptores olfativos;

Deliciosos receptores de sabor percibidos.

en la forma de la presentación:

Texto: transmitido en forma de símbolos destinados a denotar lexemes del lenguaje;

Numérico, en forma de números y signos que denotan acciones matemáticas;

Gráfico - en forma de imágenes, artículos, gráficos;

Sonido: oral o en forma de una grabación de la transmisión del audio del lenguaje de la banda.

para la cita:

MASS: contiene información trivial y opera con un conjunto de conceptos, comprensible la mayor parte de la sociedad;

Especial: contiene un conjunto específico de conceptos, cuando se usa, se transmite información, que puede no ser entendida por la mayor parte de la sociedad, pero es necesario y entenderse como parte de un grupo social estrecho, que utiliza esta información;

Secreto, transmitido por un círculo estrecho de individuos y canales cerrados (protegidos);

Personal (privado) es un conjunto de información sobre cualquier personalidad que determine el estatus social y los tipos de interacciones sociales dentro de la población.

por significado:

Actual - información valiosa en este momento;

Confiable - información obtenida sin distorsión;

Comprensible: la información expresada en el idioma de comprensible a quien está destinada;

Información completa suficiente para hacer la solución o comprensión correcta;

Útil: la utilidad de la información está determinada por el sujeto que recibió información, dependiendo de la cantidad de posibilidades de su uso.

El valor de la información en varias áreas de conocimiento.

En teoría de la información en nuestro tiempo, se están desarrollando muchos sistemas, métodos, enfoques, ideas. Sin embargo, los científicos creen que aparecerán nuevas ideas en las áreas actuales en teoría de la información, aparecerán nuevas ideas. Como evidencia de la exactitud de sus suposiciones, lideran "vivos", la naturaleza en desarrollo de la ciencia, indican que la teoría de la información se introduce sorprendentemente rápida y firmemente en una variedad de áreas de conocimiento humano. La teoría de la información ha penetrado física, química, biología, medicina, filosofía, lingüística, pedagogía, economía, lógica, ciencias técnicas, estética. Según los propios especialistas, la doctrina de la información que surgió debido a las necesidades de la teoría de la comunicación y la cibernética, cruzó su marco. Y ahora, quizás, tenemos el derecho de hablar sobre la información como un concepto científico que le da el método teórico al método de investigación, con el que puede penetrar en muchas ciencias sobre la naturaleza viva y inanimada, sobre la sociedad, que no solo tomará un Mire todos los problemas con las nuevas partes, pero también vea aún no responde. Es por eso que el término "información" recibió en nuestro tiempo generalizado, convirtiéndose en parte de tales conceptos como sistema de información, cultura de información, ética de información.

Muchas disciplinas científicas utilizan la teoría de la información para enfatizar la nueva dirección en las antiguas ciencias. Por lo tanto, surgió, por ejemplo, geografía de información, economía de la información, derecho de la información. Pero el término "información" fue extremadamente importante en relación con el desarrollo de los últimos equipos informáticos, la automatización del trabajo mental, el desarrollo de nuevos medios de procesamiento de la comunicación y la información y, especialmente, con el surgimiento de la informática. Una de las tareas más importantes de la teoría de la información es estudiar la naturaleza y las propiedades de la información, la creación de métodos para su procesamiento, en particular la transformación de diversas información moderna en un programa informático, con el que se está automatizando el trabajo mental. Un aumento peculiar de la inteligencia y, por lo tanto, el desarrollo de los recursos intelectuales de la sociedad.

La palabra "información" proviene de la palabra latín informatio, que en la traducción significa minimizar, aclaraciones, familiarización. El concepto de "información" es la informática básica, sin embargo, es imposible darle una definición a través de los otros conceptos "simples". La influencia de la "información" se usa en varias ciencias, mientras que en cada ciencia el concepto de "Información" se asocia con varios conceptos de conceptos. Información en biología: los estudios de biología que viven la naturaleza y el concepto de "información" se asocian con el comportamiento apropiado de los organismos vivos. En los organismos vivos, la información se transmite y se almacena con objetos de diversa naturaleza física (estado de ADN), que se consideran signos de alfabetos biológicos. La información genética es heredada y almacenada en todas las células de organismos vivos. Enfoque filosófico: la información es la interacción, la reflexión, el conocimiento. Enfoque cibernético: la información son características. gerente Señal transmitida en línea.

El papel de la información en la filosofía.

El tradicionalismo de la subjetiva dominado constantemente en las primeras definiciones de información, como categoría, conceptos, propiedades del mundo material. La información existe fuera de nuestra conciencia, y puede reflejarse en nuestra percepción solo como resultado de la interacción: reflexiones, lectura, obtención en forma de una señal, incentivo. La información no es material, así como todas las propiedades de la materia. La información se encuentra en una fila: la materia, el espacio, el tiempo, sistémico, la función, etc., ¿cuáles son los conceptos fundamentales de la reflexión formalizada de la realidad objetiva en su distribución y variabilidad, diversidad y manifestaciones. La información es la propiedad de la materia y refleja sus propiedades (estado o capacidad de interacción) y la cantidad (medida) por interacción.

Desde un punto de vista material, la información es el procedimiento para seguir los objetos del mundo material. Por ejemplo, el orden de las letras en una hoja de papel de acuerdo con ciertas reglas es la información escrita. El orden de los puntos coloridos en una hoja de papel de acuerdo con ciertas reglas es la información gráfica. El orden de las notas musicales es la información musical. El orden de los genes en ADN es información hereditaria. El orden de los bits en la computadora es información informática, etc. etc. Para el intercambio de información requiere la disponibilidad de condiciones necesarias y suficientes.

Información (información) es

Las condiciones necesarias:

La presencia de al menos dos objetos diferentes de material o mundo intangible;

La presencia de una propiedad general que le permite identificar objetos como portador de información;

La presencia de una propiedad específica en objetos que permiten distinguir entre objetos entre sí;

La presencia de las propiedades del espacio permite determinar el orden de los objetos. Por ejemplo, la ubicación de la información escrita en papel es una propiedad de papel específica que le permite colocar las letras de izquierda a derecha y hacia abajo.

Una condición suficiente es una cosa: la presencia de un sujeto capaz de reconocer información. Este es un hombre y la sociedad humana, la sociedad de animales, robots, etc. El mensaje informativo se basa seleccionando de la base de copias de los objetos y la ubicación de estos objetos en el espacio en un orden específico. La longitud del mensaje de información se define como el número de copias de los objetos base y siempre se expresa en un entero. Es necesario distinguir la longitud del mensaje de información, que siempre se mide por un entero y el número de conocimientos contenidos en el mensaje de información, que se mide en una unidad de medición desconocida. Desde un punto de vista matemático, la información es la secuencia de enteros que están escritos en el vector. Los números son el número de objeto en la base de información. El vector se llama información invariante, ya que no depende de la naturaleza física de los objetos base. El mismo mensaje informativo se puede expresar en letras, palabras, sugerencias, archivos, imágenes, notas, canciones, videoclips, cualquier combinación de todos los mencionados anteriormente.

Información (información) es

El papel de la información en la física.

la información es información sobre el mundo (objeto, proceso, fenómeno, evento), que son objeto de conversión (incluido el almacenamiento, transmisión, etc.) y se utilizan para desarrollar el comportamiento, para tomar una decisión, administrar o para aprender.

Las características características de la información son las siguientes:

Este es el recurso más importante de la producción moderna: reduce la necesidad de terrenos, trabajos, capital, reduce el costo de las materias primas y la energía. Por ejemplo, tener la capacidad de archivar sus archivos (es decir, tener dicha información), no puede gastar dinero en la compra de nuevos disquetes;

La información causa una nueva producción a la vida. Por ejemplo, la invención del rayo láser fue la causa de la producción y desarrollo de discos láser (ópticos);

La información es una mercancía, y su información no pierde después de la venta. Entonces, si un estudiante le informa a su compañero sobre el calendario de clases durante el semestre, no pierde estos datos;

La información proporciona valor adicional a otros recursos, en particular, laboral. De hecho, el trabajador con educación superior se valora más que con un promedio.

De la siguiente manera de la definición, tres conceptos siempre se asocian con información:

La fuente de la información es el elemento del mundo circundante (objeto, fenómeno, evento), información sobre la cual es el objeto de la conversión. Por lo tanto, la fuente de la información que el lector del presente Manual de estudio está recibiendo actualmente es la informática como esfera de actividad humana;

El adquirente de la información es el elemento del mundo circundante que utiliza información (para trabajar el comportamiento, para tomar una decisión, administrar o para capacitación). El adquirente de esta información es el Reader;

La señal es un portador de materiales que registra información para transferirla desde la fuente al adquirente. En este caso, la señal es electrónica. Si el estudiante toma este manual en la biblioteca, entonces la misma información tendrá un portador de papel. Al ser leído y recordado por el estudiante, la información adquirirá otro medio: biológico cuando esté "escrito" en la memoria del aprendiz.

La señal es el elemento más importante en este esquema. Las formas de su presentación, así como las características cuantitativas y cualitativas de la información contenida, importantes para el adquirente de la información, se discuten aún más en esta sección del libro de texto. Las características principales de la computadora como la herramienta principal que realiza la visualización de la fuente de información en la señal (1 en la figura) y "traer" la señal al adquirente de la información (conexión 2 en la figura) se acciona en un ordenador. La estructura de los procedimientos que implementan la comunicación 1 y 2 y los componentes del proceso de información son objeto de consideración en el proceso de información.

Los objetos del mundo material están en un estado de cambio continuo, que se caracteriza por el intercambio de energía del objeto con el medio ambiente. Cambiar el estado de un objeto siempre conduce a un cambio en el estado, algún otro objeto ambiental. Este fenómeno, independientemente de cómo se cambien los estados y qué objetos se cambian, se puede considerar como transmisión de señal de un objeto, otro. Cambio del estado del objeto Cuando se transmite la señal, se llama registro de señal.

La señal o secuencia de señales forman un mensaje que puede ser percibido por el destinatario de una forma u otra, así como de una forma u otra. La información de la física es un término, una "señal" de "señal" de generalización cualitativamente generalizando y "mensaje". Si se pueden cuantificar señales y mensajes, entonces podemos decir que las señales y los mensajes son unidades de información de información. El mensaje (señal) en diferentes sistemas se interpreta a su manera. Por ejemplo, una larga larga y dos señales de sonido cortas en la terminología del alfabeto MORSE es la letra de (o d), en la terminología de BIOS del Premio de la Compañía, el fanático de la tarjeta de video.

Información (información) es

El papel de la información en matemáticas.

En las matemáticas, la teoría de la información (teoría matemática de la comunicación) es la sección de las matemáticas aplicadas, que determina el concepto de información, sus propiedades y el establecimiento de relaciones límite para los sistemas de transmisión de datos. Las secciones principales de la teoría de la información son la codificación de origen (codificación de compresivo) y la codificación de canal (resistente al ruido). Las matemáticas son más que la disciplina científica. Ella crea un solo idioma de toda la ciencia.

El tema de los estudios matemáticos son objetos abstractos: número, función, vector, conjunto y otros. Al mismo tiempo, la mayoría de ellos se inyectan axiomáticamente (axioma), es decir, Sin ninguna conexión con otros conceptos y sin ninguna definición.

Información (información) es

la información no se encuentra entre el tema de la investigación de las matemáticas. Sin embargo, la palabra "información" se usa en términos matemáticos, información propia y información mutua relacionada con la parte abstracta (matemática) de la teoría de la información. Sin embargo, en la teoría matemática, el concepto de "información" se asocia con objetos exclusivamente abstractos: valores aleatorios, mientras que en la teoría moderna de la información, este concepto se considera significativamente más amplio como una propiedad de objetos materiales. La conexión entre estos dos términos idénticos es indudable. Es el aparato matemático de números aleatorios utilizados al autor de la teoría de la información Claude Shannon. Él mismo implica bajo el término "información" algo fundamental (impedimento). En la teoría de Shannon, se basa intuitivamente que la información tiene contenido. La información reduce la incertidumbre general y la entropía de la información. La cantidad de información está disponible para medir. Sin embargo, advierte a los investigadores de la transferencia mecánica de conceptos de su teoría a otras áreas de la ciencia.

"Búsqueda de formas de aplicar la teoría de la información en otras áreas de la ciencia no se reduce a la transferencia trivial de los términos de un área de ciencia a otra. Esta búsqueda se realiza en un proceso a largo plazo de extender nuevas hipótesis y verificación experimental." K. Shannon.

Información (información) es

El papel de la información en la cibernética.

El fundador de CyberNetics ni Bert Wiener habló sobre la información de la siguiente manera:

la información no es la materia y no la energía, la información es información ". Pero la definición básica de información que dio en varios de sus libros, lo siguiente: La información es la designación del contenido obtenido por nosotros desde el mundo exterior, en el proceso de Adaptándote y nuestros sentimientos.

La información es el concepto básico de cibernética, al igual que el IT económico. Es el concepto principal de cibernética económica.

Las definiciones de este término son mucho, son complejas y contradictorias. La razón es obvia que yo. Como fenómeno, se involucran varias ciencias, y la cibernética es solo la más joven de ellos. I. - El tema de estudio de tales ciencias como ciencia de la gestión, matemática, genética, teoría de los medios I. (Impresión, radio, Televisión), informática que se ocupan de problemas científicos y técnicos I., etc. Finalmente, la última vez es un gran interés en los problemas I. Filósofos: Tienden a considerar I. Como una de las principales propiedades universales de la materia relacionada con el concepto. de reflexión. Con todas las interpretaciones del concepto I. Implica la existencia de dos objetos: la fuente de I. y la adquirente (destinatario) I. Transferencia I. De uno a otro, ocurre con la ayuda de señales que, en general, hablando Puede que no tenga ninguna conexión física con su significado: esta comunicación está determinada por el Acuerdo. Por ejemplo, el golpe a la campana de eACk significaba que era necesario reunirse en la plaza, pero aquellos que no sabían sobre este orden, no informó ningún I.

En una situación con Bell Bell, una persona que participa en el acuerdo sobre el significado de la señal sabe que en este momento puede haber dos alternativas: la víspera de la congregación tendrá lugar o no se llevará a cabo. O, expresando el idioma de la teoría I., un evento indefinido (EVE / EVE /) tiene dos resultados. La señal recibida conduce a una disminución de la incertidumbre: una persona ahora sabe que el evento (EVE /) tiene solo un resultado: se llevará a cabo. Sin embargo, si se sabía de antemano que el VECHE tiene lugar en tal hora, la campana no reportó nada nuevo. Esto implica que cuanto menos probable (es decir, más inesperado) el mensaje, más I. Contiene, y viceversa, mayor será la probabilidad del evento antes de realizar un evento, menos I. contiene una señal. Aproximadamente tales argumentos llevados en los años 40. Siglo xx A la aparición del estadístico, o "clásico", la teoría I., que determina el concepto de I. A través de la medida de reducir la incertidumbre del conocimiento sobre el cumplimiento de cualquier evento (tal medida fue nombrada entropía). N. Wiener, K. Shannon y los científicos soviéticos, Kolmogorov, Va Kotelnikov y otros se estaban de pie en los orígenes de esta ciencia, Va Kotelnikov y otros. Se las arreglaron para traer patrones matemáticos de medición del número I. y, por lo tanto, tales conceptos como Ancho de banda del canal y., Capacidad de almacenamiento de I. Dispositivos, etc., que sirvió como un incentivo poderoso para el desarrollo de la cibernética como equipo de ciencia y computación electrónica como una aplicación práctica de los logros de la cibernética.

En cuanto a la determinación del valor, la utilidad de I. Para el destinatario, aún está aún no resuelto, poco claro. Si procede de las necesidades de la gestión económica y, por lo tanto, la cibernética económica, entonces. Puede definirse como todas esas información, conocimiento, mensajes que ayudan a resolver esta o esa tarea de gestión (es decir, reducir la incertidumbre de sus resultados). Luego, algunas posibilidades de evaluación y también se están abriendo: es más útil, más valioso, cuanto antes o más pequeño. costos Conduce a una solución al problema. El concepto de I. De cerca el concepto de datos. Sin embargo, hay una diferencia entre ellos: los datos son señales de los que aún debe eliminarse por I. El procesamiento de datos es el proceso de traerlos adecuados para esto.

El proceso de su transferencia de la fuente al adquirente y la percepción como I. puede considerarse como un pasaje de tres filtros:

Físico, o estadístico (restricción puramente cuantitativa en el ancho de banda del canal, independientemente del contenido de los datos, es decir, desde el punto de vista de la sintalización);

Semántico (selección de esos datos que pueden entenderse por el destinatario, es decir, corresponder al tesauro de su conocimiento);

Pragmatic (selección entre la información entendida de aquellos que son útiles para resolver esta tarea).

Esto se muestra bien en el esquema tomado del libro E. G. Yasin sobre información económica. En consecuencia, tres aspectos del estudio de I. Los problemas son asignados, sintácticos, semánticos y pragmáticos.

Según el contenido I., se divide en socio-político, socioeconómico (incluido el IT económico), científico y técnico, etc. En general, las clasificaciones de I. Muchas, se basan en diversas razones. Como regla general, las clasificaciones de datos también se construyen debido a la proximidad de los conceptos. Por ejemplo, I. se divide en una estadística (constante) y dinámica (variable), y los datos están en constantes y variables. Otra división es la principal, derivada, salida I. (También se clasifican los datos). La tercera división es I. Gestión y conciencia. El cuarto es excesivo, útil y falso. Quinto - completo (sólido) y selectivo. Esta idea de Wiener ofrece una indicación directa de la objetividad de la información, es decir,. Su existencia en la naturaleza es independiente de la conciencia (percepción) de una persona.

Información (información) es

Información objetiva La cibernética moderna determina como una propiedad objetiva de los objetos materiales y los fenómenos para generar una diversidad de estados que se transmiten de un objeto (proceso) a otro, y se capturan en su estructura. El sistema material en la cibernética se considera tantos objetos que ellos mismos pueden estar en diferentes estados, pero el estado de cada uno de ellos está determinado por los estados de otros objetos del sistema.

Información (información) es

En la naturaleza, el conjunto de estados estatales es la información, los propios estados son el código principal, o el código fuente. Por lo tanto, cada sistema de material es una fuente de información. La información subjetiva (semántica) cibernética determina cómo el significado o el contenido del mensaje.

El papel de la información en la informática.

El tema de estudio de la ciencia son los datos: métodos para su creación, almacenamiento, procesamiento y transmisión. Contenido (también: "Relleno" (en contexto), "Llenando el sitio") - término que significa todo tipo de información (tanto texto como multimedia - imágenes, audio, video) que constituyen (visualizado, para visitantes, contenido). Se utiliza para separar el concepto de información que constituye la estructura interna de la página / sitio (código), desde el que finalmente se mostrará.

La palabra "información" proviene de la palabra latín informatio, que en la traducción significa minimizar, aclaraciones, familiarización. El concepto de "información" es la informática básica, pero es imposible darle una definición a través de otros conceptos "simples".

Los siguientes enfoques para la definición de información se pueden distinguir:

Tradicional (ordinario): utilizado en la informática: la información es la información, el conocimiento, los informes sobre la situación que una persona percibe del mundo con la ayuda de los sentidos (visión, audición, gusto, olfato, tacto).

Probabilística: utilizada en teoría de la información: la información es información sobre los objetos y los fenómenos del medio ambiente, sus parámetros, propiedades y condición que reducen el grado de incertidumbre e incompleto del conocimiento sobre ellos.

La información se almacena, transmite y se procesa en el formulario simbólico (signo). La misma información se puede representar en diferentes formas:

El letrero escrito, que consiste en varios caracteres entre los que se distingue por símbolos, en forma de texto, números, especiales. símbolos; gráfico; Mesa y así sucesivamente;

La forma de gestos o señales;

Forma verbal oral (conversación).

La presentación de la información se lleva a cabo utilizando idiomas como sistemas icónicos que se basan en un cierto alfabeto y tienen reglas para realizar señales. El lenguaje es un cierto signo de presentación de información. Existe:

Las lenguas naturales son lenguas habladas en oral y escritura. En algunos casos, el habla conversacional puede ser reemplazada por el lenguaje de los Mimici y los gestos, el lenguaje de los signos especiales (por ejemplo, carretera);

Idiomas formales: idiomas especiales para varias áreas de actividad humana, que se caracterizan por un alfabeto rígidamente fijo, reglas más estrictas de gramática y sintaxis. Este es un lenguaje de música (notas), lenguaje de matemáticas (figuras, signos matemáticos), sistemas numéricos, lenguajes de programación, etc. En el corazón de cualquier idioma se encuentra el alfabeto, un conjunto de caracteres / letreros. El número total de caracteres del alfabeto es habitual llamado el alfabeto.

Medios de medios: cuerpo medio o físico para transferir, almacenar y reproducir información. (Estos son eléctricos, ligeros, térmicos, sonidos, radio Señales, discos magnéticos y láser, publicaciones impresas, fotos, TD.)

Los procesos de información son procesos asociados con la obtención, almacenamiento, procesamiento y transmisión de información (es decir, acciones realizadas con información). Esos. Estos son procesos, durante los cuales el contenido de la información o la forma de su presentación cambia.

Para garantizar el proceso de información, se necesita una fuente de información, el canal de comunicación y la información adquistente. La fuente transmite (envía) información, y el receptor recibe (percibe). La información transmitida se logra de la fuente al receptor utilizando la señal (código). Cambiar la señal le permite obtener información.

Siendo un objeto de transformación y uso, la información se caracteriza por las siguientes propiedades:

La sintaxis es una propiedad que determina el método para presentar información en el transportista (en la señal). Por lo tanto, esta información se representa en un medio electrónico utilizando una fuente específica. Aquí también puede considerar tales parámetros para presentar información como el estilo y el color de la fuente, sus dimensiones, un intervalo firmista, etc. Al seleccionar los parámetros deseados, ya que las propiedades sintácticas están obviamente determinadas por el método estimado de conversión. Por ejemplo, para una persona mal visible, el tamaño y el color de la fuente es esencial. Si se supone que este texto ingresa a la computadora a través del escáner, el formato de papel es importante;

SEMANTICS: una propiedad que determina el significado de la información como una correspondencia de la señal al mundo real. Por lo tanto, la semántica de la señal "Informática" se encuentra en esta definición anterior. La semántica puede considerarse como un determinado acuerdo, conocido por el adquirente de la información, lo que significa cada señal (la llamada regla de interpretación). Por ejemplo, es precisamente la semántica de las señales, estudia un motorista novato, mirando las reglas de la carretera, conociendo las señales de tráfico (en este caso, las señales son las señales en sí mismas). La semántica de las palabras (señales) aprende un aprendiz a cualquier idioma extranjero. Se puede decir que el significado de aprender a informática es estudiar la semántica de varias señales, la esencia de los conceptos clave de esta disciplina;

Pragmática: una propiedad que determina el impacto de la información sobre el comportamiento del adquirente. Por lo tanto, las pragmáticas de la información recibida por el lector del presente tutorial están al menos en la entrega exitosa del examen de examen. Me gustaría creer que estas pragmáticas no se limitarán a esto, y servirá para una mayor capacitación y actividad profesional del lector.

Información (información) es

Cabe señalar que las diferentes señales en la sintaxis pueden tener la misma semántica. Por ejemplo, las señales "ECM" y "Computadora" significan un dispositivo electrónico para convertir la información. En este caso, generalmente habla de las señales de sinonimonio. Por otro lado, una señal (es decir, la información con una propiedad sintáctica) puede tener diferentes pragmáticas para los consumidores y la semántica diferente. Por lo tanto, un signo de tráfico conocido como el "ladrillo" y que tiene una semántica completamente definida ("la entrada está prohibida"), significa para el automovilista una prohibición de la entrada, y no afecta al peatón. Al mismo tiempo, la señal "clave" puede tener una semántica diferente: una tecla de agudeza, una tecla de resorte, la tecla para abrir la cerradura, la tecla utilizada en la codificación de la computadora con el propósito de la protección contra el acceso no autorizado (en este caso Están hablando de señal de señal). Hay señales: antónimos que tienen la semántica opuesta. Por ejemplo, "frío" y "caliente", "rápido" y "lento", etc.

El tema de estudiar ciencias de la informática son los datos: métodos para su creación, almacenamiento, procesamiento y transmisión. Y la información en sí misma registrada en los datos, su significado significativo es interesante para los usuarios de sistemas de información, que son especialistas en diversas ciencias y áreas de actividad: el médico está interesado en la información médica, el geólogo - geológico, empresario - comercial, etc. (incluido el especialista en ciencias de la computación interesado en información sobre datos sobre datos).

Semiótica - ciencia de la información

La información no debe imaginarse sin ella, procesamiento, transmisión, etc., es decir, fuera del intercambio de información. Todos los actos de intercambio de información se llevan a cabo a través de símbolos o signos, con los cuales un sistema afecta al otro. Por lo tanto, la principal que estudia información es la semiótica, la ciencia de los signos y los signos en la naturaleza y la sociedad (teoría de los signos). En cada información del intercambio de información, puede encontrar tres de su "participante", tres elementos: un letrero, un objeto que denota, y el destinatario (uso) de la señal.

Dependiendo de si la relación entre qué elementos se discuten, las semióticas se dividen en tres secciones: Synthaktics, semántica y pragmática. Synthakia estudia signos y relaciones entre ellos. Sin embargo, resumirá del contenido del signo y de su valor práctico para el destinatario. La semántica estudia las relaciones entre los signos y los objetos denotados por ellos, mientras se distrae del destinatario de signos y valores de este último: para él. Está claro que el estudio de los patrones de la visualización semántica de los objetos en los signos es imposible sin tener en cuenta y utilizar los patrones generales de construir cualquier sistema icónico estudiado por sintetate. Los estudios de pragmáticos se relacionan entre los signos y su uso. En el marco de las pragmáticas, todos los factores distinguen entre un acto de intercambio de información de otro, todos los temas de los resultados prácticos de usar información y su valor para el destinatario.

Al mismo tiempo, muchos aspectos de las relaciones de signos entre sí están inevitablemente afectados y con objetos, se denotan. Por lo tanto, tres secciones de semiótica corresponden a los tres niveles de abstracción (distracciones) de los aspectos específicos de los actos de intercambio de información específicos. El estudio de la información en toda su diversidad corresponde al nivel pragmático. Después de distraerse con el destinatario de la información, excluyéndolo de la consideración, nos dirigimos a estudiarlo a nivel semántico. Con la distracción del contenido de los signos, el análisis de la información se traduce al nivel de sintetate. Dicha interpenetración de las secciones principales de semiótica asociadas con diferentes niveles de abstracción se puede representar utilizando el esquema de "Tres semióticas y su relación". La medición de la información se realiza de acuerdo con la misma en tres aspectos: sintáctica, semántica y pragmática. La necesidad de una dimensión de información tan diferente, como se mostrará a continuación, está dictada por la práctica del diseño y firmas Obras de sistemas de información. Considere una situación de producción típica.

Al final del cambio, el planificador del sitio prepara datos sobre la implementación del calendario de producción. Estos datos se inscriben en el Centro de Información y Computación (ITC) de la empresa, donde se procesan, y en forma de informes sobre el estado de producción se emiten actualmente a los gerentes. El jefe del taller sobre la base de los datos obtenidos decide el cambio en el plan de producción para los siguientes planeados o haciendo cualquier otra medida organizativa. Obviamente, para la cabeza, el taller, la cantidad de información contenida un resumen depende del valor del afecto económico obtenido de su uso en la toma de decisiones, sobre la información útil recibida. Para el planificador del sitio, la cantidad de información en el mismo mensaje está determinada por la precisión del cumplimiento de su posición real de asuntos en el sitio y el grado de sorpresa de los hechos reportados. Lo que son inesperados, más rápido debe informarlos a la administración, más información en este mensaje. Para los empleados de la ILS, la cantidad de caracteres será de suma importancia, la longitud del portador de mensajes, ya que es precisamente determina el tiempo para cargar equipos de computación y canales de comunicación. Al mismo tiempo, ni la utilidad de la información ni la medida cuantitativa del valor semántico de su información están prácticamente interesadas.

Naturalmente, al organizar un sistema de gestión de producción, el sistema del modelo de selección de soluciones, utilizaremos la utilidad de la información como una medida de información. Al construir un sistema contabilidad y los informes que garantizan la gestión de los datos sobre el progreso del proceso de producción para la medida de la información, se debe realizar la novedad recibida. Empresa Los procedimientos para el procesamiento mecánico de información requieren medir la cantidad de mensajes como el número de signos procesados. Tres de esos enfoques sustancialmente diferentes para la medición de la información no contradicen y no se excluyen entre sí. Por el contrario, medir la información en diferentes escalas, le permiten evaluar de manera plena e integral la informatividad de cada mensaje y organizar de manera más eficiente un sistema de gestión de producción. Por un miembro de la expresión del profesor. NO. KOBRINSKY, cuando se trata de una compañía de flujo de la compañía racional, la cantidad, la novedad, la utilidad de la información se encuentra entre sí, también relacionadas como la cantidad, la calidad y el costo de producción en la producción.

Información en el mundo material.

la información es uno de los conceptos generales asociados con la materia. La información existe en cualquier objeto material como colector de sus estados y se transmite desde el objeto al objeto en el proceso de su interacción. La existencia de información como naturaleza objetiva de la materia sigue lógicamente a partir de las propiedades fundamentales conocidas de la materia, la estructuración, el cambio continuo (movimiento) y la interacción de los objetos materiales.

La estructura de la materia se manifiesta como la difusión interna de la integridad, el orden legitario de la comunicación de los elementos en la composición del conjunto. En otras palabras, cualquier objeto material, de la meta de partículas subatómicas del universo (gran explosión) en su conjunto, es un sistema de subsistemas interconectados. Debido al movimiento continuo, entendido en un sentido amplio, ya que se mueve en el espacio y el desarrollo a tiempo, los objetos materiales cambian sus estados. Los cambios de estado del objeto y cuando las interacciones con otros objetos. Muchos estados del sistema material y todos sus subsistemas representan información sobre el sistema.

Estrictamente hablando, en virtud de la incertidumbre, el infinito, las propiedades estructurales, el número de información objetiva en cualquier objeto de material es infinito. Esta información se llama completa. Sin embargo, uno puede asignar niveles estructurales con conjuntos finitos de estados. La información que existe en el nivel estructural con un número finito de estados se llama privado. Para obtener información privada, el concepto de la cantidad de información es notable.

A partir de la vista anterior, es lógico y simplemente sigue la selección de una unidad de medición de la cantidad de información. Imagina un sistema que puede ser solo dos estados equivalentes. Asignamos uno de ellos el código "1", y el otro es "0". Esta es la cantidad mínima de información que puede contener el sistema. Es una unidad de medida de la información y se llama bits. Hay otros métodos, más complejos, métodos y unidades de medición de la cantidad de información.

Dependiendo de la forma material del portador, la información es dos especies principales: analógica y discreta. La información analógica varía en el tiempo continuamente y toma valores de los valores continuos. La información discreta varía en algunos puntos en el tiempo y toma valores de un determinado conjunto de valores. Cualquier objeto o proceso de material es una fuente principal de información. Todas las condiciones posibles conforman el código fuente. El valor instantáneo de los estados se presenta como un símbolo ("letra") de este código. Para que la información se transmita de un objeto a otro a otro como receptor, es necesario que haya algún vehículo de material intermedio que interactúe con la fuente. Tales portadores en la naturaleza, como regla general, son los procesos de rápido propagación de la estructura de la onda: cósmicos, gamma y radiografías, ondas electromagnéticas y de sonido, potenciales (y puede que aún no haya ondas abiertas) del campo gravitatorio. Cuando la radiación electromagnética interactúa con el objeto como resultado de la absorción o la reflexión, su espectro cambia, es decir, Las intensidades de algunas longitudes de onda cambian. Cambie cuando las interacciones con objetos y armónicos de las oscilaciones sonoras. La información se transmite y en la interacción mecánica, sin embargo, la interacción mecánica, por regla general, conduce a grandes cambios en la estructura de los objetos (hasta su destrucción), y la información está muy distorsionada. La distorsión de la información cuando se transmite se llama desinformación.

Transferencia de información de la fuente a la estructura del transportista se llama codificación. En este caso, hay una conversión de código fuente en el código portador. El transportista con un código fuente transferido a él como un código portador se denomina señal. El receptor de señal tiene su propio conjunto de posibles estados, que se denomina código del receptor. La señal, interactuando con el receptor de objetos, cambia sus estados. El proceso de convertir el código de señal en el código del receptor se denomina decodificación. Introducción de información de la fuente El receptor puede considerarse interacción de información. La interacción informativa es radicalmente diferente de otras interacciones. Con todas las demás interacciones de objetos materiales, se produce una sustancia y (o) energía. En este caso, uno de los objetos pierde la sustancia o la energía, y el otro los recibe. Esta propiedad de las interacciones se llama simetría. Con la interacción de la información, el receptor recibe información y la fuente no la pierde. Interacción informativa asimétricamente. La información lensible en sí misma no es material, es una propiedad de la materia, como la estructura, el movimiento y existe en los transportistas materiales como sus códigos.

Información de vida silvestre

La naturaleza viva es compleja y diversa. Las fuentes y los receptores de información en ella son organismos vivos y sus células. El cuerpo tiene una serie de propiedades que lo distinguen de objetos materiales no vivos.

Principal:

Metabolismo continuo, información energética y ambiental;

Irritabilidad, la capacidad del cuerpo para percibir y reciclar información sobre los cambios ambientales y el entorno interno del cuerpo;

La excitabilidad, la capacidad de responder al efecto de los estímulos;

La autoorganización se manifiesta como cambios en el cuerpo para adaptarse a las condiciones del entorno externo.

El cuerpo, considerado como el sistema, tiene una estructura jerárquica. Esta estructura en relación con el mismo organismo se divide en niveles domésticos: molecular, celular, nivel de órganos y, finalmente, el propio organismo. Sin embargo, el cuerpo interactúa sobre los sistemas de vida del organizador, cuyos niveles son poblaciones, ecosistemas y toda la vida silvestre en su conjunto (biosfera). Entre todos estos niveles, los flujos se circulan, no solo de sustancias y energía, sino también la información. Las interacciones informativas en la vida silvestre ocurren de la misma manera que en el inanimado. Al mismo tiempo, la vida silvestre en el proceso de evolución creó una amplia variedad de fuentes, portadores y receptores de información.

La reacción a la exposición al mundo exterior se manifiesta en todos los organismos, ya que es causada por la irritabilidad. En los organismos más altos, la adaptación al entorno externo se caracteriza por actividades complejas, que es efectiva solo con información ambiental suficientemente completa y oportuna. Los receptores de información del entorno externo son los sentidos, que incluyen visión, audición, olor, sabor, toque y aparatos vestibulares. En la estructura interna de los organismos, hay numerosos receptores internos asociados con el sistema nervioso. El sistema nervioso consiste en neuronas cuyos procesos (axones y dendrites) son análogos de canales de transmisión de información. Los principales organismos que garantizan el almacenamiento y el procesamiento de información en vertebrados son la médula espinal y el cerebro. De acuerdo con las peculiaridades de los órganos sensoriales, la información percibida por el cuerpo puede clasificarse como visual, auditiva, sabor, olfativo y táctil.

Encontrar en la retina del ojo humano, la señal se excita especialmente sus componentes celulares. Los pulsos de células nerviosas a través de los axones se transmiten al cerebro. El cerebro recuerda este sentimiento en forma de cierta combinación de estados de los componentes de sus neuronas. (Continuación del ejemplo - en la sección "Información en la Sociedad Humana"). La información acumulativa, el cerebro crea en su estructura el modelo de información asociado del mundo circundante. En la vida silvestre para el cuerpo, la información del receptor es una característica importante de su disponibilidad. La cantidad de información que el sistema nervioso humano es capaz de presentar al cerebro al leer los textos es de aproximadamente 1 bit para 1/16 s.

Información (información) es

El estudio de los organismos es difícil de ser difícil. La abstracción de la estructura como un conjunto matemático para objetos que no son vivos no está permitido para un organismo vivo, porque para crear un modelo abstracto más o menos adecuado del cuerpo, es necesario tener en cuenta todos los niveles jerárquicos de su estructura. Por lo tanto, es difícil introducir la medida de la información. Es muy difícil para la relación entre los componentes de la estructura. Si se sabe que el órgano es una fuente de información, ¿cuál es la señal y ese receptor?

Antes de la aparición de máquinas informáticas, la biología que participa en los estudios de organismos vivos aplicó solo cualitativa, es decir, Modelos descriptivos. En un modelo de alta calidad, los vínculos de información entre los componentes de la estructura son casi imposibles. Los componentes electrónicos permitieron aplicar nuevos métodos en estudios biológicos, en particular, método de modelado de máquinas, lo que implica una descripción matemática de fenómenos conocidos y procesos que se producen en el cuerpo, agregando una hipótesis sobre algunos procesos desconocidos y el cálculo de opciones posibles Por el comportamiento del cuerpo. Las opciones obtenidas se comparan con el comportamiento real del cuerpo, lo que hace posible determinar la verdad o el sentimiento de las hipótesis extendidas. En tales modelos, la interacción de la información también se puede tener en cuenta. Extremadamente complejos son los procesos de información que aseguran la existencia de la vida misma. Y aunque es intuitivo que esta propiedad esté directamente relacionada con la formación, el almacenamiento y la transferencia de información completa sobre la estructura del cuerpo, la descripción abstracta de este fenómeno se evitó hasta que algún tiempo sea imposible. Sin embargo, los procesos de información que aseguran que la existencia de esta propiedad se divulga parcialmente debido a la descifrado del código genético y lee los genomas de varios organismos.

Información en la sociedad humana

El desarrollo de la materia en el proceso de movimiento se dirige hacia la complicación de la estructura de los objetos materiales. Una de las estructuras más complejas es el cerebro humano. Si bien esta es la única estructura conocida por nosotros, que tiene una propiedad que el hombre mismo llama conciencia. Hablando sobre la información que nosotros, como criaturas de pensamiento, a priori implican que la información, además de su presencia en la forma de las señales que recibimos, tiene cierto sentido. Formando en su modelo de conciencia del mundo circundante como un conjunto interconectado de modelos de sus objetos y procesos, una persona usa notas de significado y no información. El significado es la esencia de cualquier fenómeno, que no coincide con él mismo y lo une con un contexto más amplio de la realidad. La palabra en sí indica directamente que el contenido semántico de la información puede formar solo receptores de información de pensamiento. En la sociedad humana, la información en sí se vuelve crucial y su contenido semántico.

Ejemplo (continuación). Después de haber experimentado un sentimiento, una persona asigna el concepto del objeto: "Tomate", y su condición es el concepto: "Rojo". Además, su conciencia registra la comunicación: "Tomate" - "Rojo". Este es el significado de la señal recibida. (Continuación del ejemplo: abajo en esta sección). La capacidad del cerebro para crear conceptos semánticos y relaciones entre ellos es la base de la conciencia. La conciencia puede verse como un modelo semántico de desarrollo automático del mundo circundante. Esto no es información. La información existe solo en el portador de materiales. La conciencia de una persona es considerada intangible. El significado existe en la conciencia de una persona en forma de palabras, imágenes y sensaciones. Una persona puede pronunciar palabras no solo en voz alta, sino también "a sí misma". También "para sí mismo" puede crear (o recordar) imágenes y sensaciones. Sin embargo, puede restaurar la información correspondiente a este sentido diciendo la palabra o escribiéndolos.

Información (información) es

Ejemplo (continuación). Si las palabras "Tomate" y "Red" son el significado de los conceptos, ¿dónde entonces la información? La información está contenida en el cerebro en forma de ciertos estados de sus neuronas. También contiene en el texto impreso que consiste en estas palabras, y al codificar letras con un código binario de tres bits, su cantidad es de 120 bits. Si usted dice palabras en voz alta, la información será significativamente más grande, pero el significado seguirá siendo el mismo. La mayor cantidad de información lleva una imagen visual. Esto se refleja incluso en el folclore: "Es mejor ver una vez que escuchar que cien veces". La información se llama de esta manera, la información se llama información semántica, ya que codifica el significado de alguna información primaria (semántica). Audiencia (o viendo) La frase pronunciada (o escrita) en un idioma que una persona no sabe, recibe información, pero no puede determinar su significado. Por lo tanto, para transferir el contenido semántico de la información, se necesitan algunos contratos entre la fuente y el receptor en el significado de las señales, es decir, palabras. Semejante convenio Se puede lograr en el proceso de comunicación. La comunicación es una de las condiciones más importantes para la existencia de la sociedad humana.

En el mundo moderno, la información es uno de los recursos más importantes y, al mismo tiempo, una de las fuerzas impulsoras de la sociedad humana. Todas las disciplinas científicas se estudian los procesos de información en el mundo material, la vida silvestre y la sociedad humana (o al menos tenidas en cuenta) por todas las disciplinas científicas de la filosofía hasta la comercialización. La creciente complejidad de los problemas de investigación científica llevó a la necesidad de resolver grandes grupos de científicos de diferentes especialidades. Por lo tanto, casi todas las teorías en consideración a continuación son interdisciplinarias. Históricamente, dos industrias integrales: la cibernética y la informática se dedican al estudio de la información directa.

La cibernética moderna es multidisciplinaria. industria Ciencia, explorando sistemas ultraacontales, tales como:

Sociedad Humana (Cibernética Social);

Economía (cibernética económica);

Organismo vivo (cibernética biológica);

El cerebro humano y su función es la conciencia (inteligencia artificial).

Informática, formada como ciencia a mediados del siglo pasado, separada de la cibernética y se ocupa de la investigación en el campo de los métodos para obtener, almacenar, transferir y procesar información semántica. Ambos industrias Use varias teorías científicas fundamentales. Estos incluyen la teoría de la información, y sus secciones son la teoría de la codificación, la teoría de los algoritmos y la teoría del autómata. Los estudios del contenido semántico de la información se basan en un complejo de teorías científicas en virtud del nombre general de la semiótica. Teoría de la información está integrada, principalmente una teoría matemática, que incluye una descripción y evaluación de métodos para extraer, transferir, almacenar y clasificar información. . Considera los medios de almacenamiento como elementos de conjunto abstracto (matemático) e interacciones entre los transportistas como una forma de localizar elementos en este conjunto. Este enfoque hace posible describir formalmente el código de información, es decir, para definir un código abstracto y explorarlo con métodos matemáticos. Para estos estudios, se aplican métodos de teoría de la probabilidad, estadísticas matemáticas, álgebra lineal, teoría del juego y otras teorías matemáticas.

Los fundamentos de esta teoría establecieron el científico estadounidense E. Hartley en 1928, que determinó la medida de la información para algunas tareas de comunicación. Más tarde, la teoría fue esencialmente desarrollada por los científicos estadounidenses K. Shannon, científicos rusos. Kolmogorov, v.m. Glushkov y otra teoría de la información incluye como particiones la teoría de la codificación, la teoría de los algoritmos, la teoría de las máquinas digitales (ver más abajo) y algunas otras. Las teorías de información alternativa y alternativas, como la "teoría de la información de la calidad" propuesta por polaco El científico M. Mazur.c El concepto de un algoritmo es un signo de cualquier persona, sin siquiera sospecharlo. Aquí hay un ejemplo de un algoritmo informal: "Tomates cortados en círculos o rebanadas. Póngase en ellos cebollas de pollo, vierta aceite vegetal, luego espolvoree con pimientos picados finos, mezcla. Espolvoree la sal antes de usar, colóquela en un tazón de ensalada y decore el perejil con verdes ". (Ensalada de tomate).

El primero en la historia de las reglas de la humanidad para resolver las tareas aritméticas fue desarrollada por uno de los conocidos científicos de Al-Khorezmi en el siglo IX de nuestra era. En su honor, las reglas formalizadas para lograr cualquier objetivo se denominan algoritmos. De acuerdo con la teoría de los algoritmos, la búsqueda de métodos para construir y evaluar los algoritmos de computación y control efectivos (incluidos universales) para el procesamiento de la información. Para justificar dichos métodos, la teoría de los algoritmos utiliza el aparato matemático de la teoría de la información. El concepto científico moderno de algoritmos como métodos de información de procesamiento se introdujo en las obras de E. POST y A. Turing en los años 20 del siglo XX. (Máquina de Turing). Los científicos rusos de A. Markov (algoritmo normal de Markov) y A. Kolmogorov. Teoría del autómata: una sección de la cibernética teórica, que examina los modelos matemáticos de la vida real o los dispositivos fundamentalmente posibles de procesamiento de información discreta en momentos discretos del tiempo.

El concepto de la máquina surgió en la teoría de los algoritmos. Si hay algunos algoritmos universales para resolver tareas de computación, debe haber dispositivos (aunque abstractos) para implementar tales algoritmos. En realidad, la máquina de Turing abstracta, considerada en la teoría de los algoritmos, es al mismo tiempo una máquina definida informalmente. La justificación teórica de la construcción de dichos dispositivos es objeto de la teoría de los autómatas. La máquina de autómatas utiliza el dispositivo de las teorías matemáticas: álgebra, lógica matemática, análisis combinatorial, teoría de los gráficos, la teoría de las probabilidades y otras maquinarias, Junto con la teoría de los algoritmos son las principales bases teóricas para crear máquinas de computación electrónica y sistemas de gestión automatizados. Alectica es un complejo de teorías científicas que estudian las propiedades de los sistemas icónicos. Los resultados más significativos se logran en la sección de semiótica - semántica. El tema de los estudios de semántica es el contenido semántico de la información.

El sistema icónico se considera un sistema de objetos específicos o abstractos (signos, palabras), con cada uno de los cuales un cierto significado se asocia de cierta manera. En teoría, se demuestra que tales comparaciones pueden ser dos. El primer tipo de coincidencia determina directamente el objeto material, que denota esta palabra y se llama denotat (o, en algunos trabajos, - candidato). El segundo tipo de cumplimiento determina el significado de la señal (palabras) y se llama el concepto. Al mismo tiempo, tales propiedades de las comparaciones como "Significado", "Verdad", "Definitividad", "Seguimiento", "Interpretación", etc. Para la investigación, se utiliza el aparato de lógica matemática y lingüística matemática. La semántica Programado para la ciudad de V. Leibnitsa y F de Sosyur en el siglo XIX, formuló y desarrolló Ch. Pierce (1839-1914), cap. Morris (R. 1901), R. Karnap (1891-1970) y otros logros axiales de la teoría es la creación de un aparato de análisis semántico que permite el significado del texto en el lenguaje natural en forma de un registro en algún idioma semántico formalizado (significativo). El análisis de laántico es la base para crear dispositivos (programas) de la máquina. Traducción de un lenguaje natural a otro.

El almacenamiento de información se realiza utilizando su transferencia a algunos proveedores de material. La información semántica registrada en un medio de almacenamiento de materiales se llama documento. La humanidad ha aprendido a mantener la información durante mucho tiempo. En las formas más antiguas de almacenamiento de información, la ubicación de los artículos: conchas y piedras en la arena, nódulos de la cuerda. Un desarrollo ambiental de estos métodos fue la escritura: una imagen gráfica de símbolos en piedra, arcilla, papiro, papel. Enorme importancia en el desarrollo de esta dirección. invención tipografía. Por su historia, la humanidad ha acumulado una gran cantidad de información en bibliotecas, archivos, publicaciones periódicas y otros documentos escritos.

Actualmente, el almacenamiento de información en forma de secuencias de símbolos binarios ha sido particularmente importante. Se utiliza una variedad de dispositivos de almacenamiento para implementar estos métodos. Son el enlace central de los sistemas de almacenamiento de información. Además de ellos, tales sistemas usan herramientas de información (motor de búsqueda), herramientas de referencia (sistemas de información y referencia) y herramientas de visualización de información (dispositivo de salida). Los sistemas de información formados dichos sistemas de información formaron bases de datos, bancos de datos y base de conocimientos.

La transmisión de información semántica se denomina proceso de su transferencia espacial de la fuente al destinatario (destinatario). Transmitir y recibir información que una persona aprendió incluso antes que para almacenarla. El habla es una forma de transferir a nuestros antepasados \u200b\u200bdistantes en contacto directo (conversación): lo usamos ahora. Para transferir información a largas distancias, es necesario usar procesos de información significativamente más complejos. Para la implementación de dicho proceso, la información debe ser frágil de alguna manera (presentada). Para presentar información, se utilizan varios sistemas icónicos: conjuntos de símbolos semánticos previamente acordados: artículos, imágenes, palabras escritas o impresas de idioma natural. Presentado con su ayuda, información semántica sobre cualquier objeto, fenómeno o proceso se denomina mensaje.

Obviamente, la información debe ser transferida a cualquier medio móvil para enviar una distancia. Los medios pueden moverse en el espacio utilizando vehículos, ya que sucede con las letras enviadas por correo. Este método garantiza la precisión completa de la transferencia de información, ya que el destinatario recibe el mensaje original, sin embargo, requiere un tiempo considerable para transmitir. Desde mediados del siglo XIX, hubo una propagación de los métodos de transferencia de información que utilizan el soporte de información de propagación naturalmente: oscilaciones electromagnéticas (oscilaciones eléctricas, ondas de radio, luz). La implementación de estos métodos requiere:

Transferencia preliminar de información contenida en el mensaje a la codificación portadora;

Asegurar la transmisión de la señal obtenida por la dirección del canal especial;

Conversión de código de señal inversa al código de mensaje - decodificación.

Información (información) es

El uso de medios electromagnéticos realiza la entrega del mensaje al direccionamiento casi instantáneo, pero requiere medidas adicionales para garantizar la calidad (confiabilidad y precisión) de la información transmitida, ya que los canales de comunicación reales están expuestos a interferencias naturales y artificiales. Los dispositivos que implementan el proceso de transferencia de datos forman sistemas de comunicación. Dependiendo del método de presentación de información, el sistema de comunicación se puede dividir en sistemas icónicos (, telefax), sonido (), video y sistemas combinados (televisión). El sistema de comunicación más desarrollado en nuestro tiempo es Internet.

Procesamiento de datos

Dado que la información no es material, su procesamiento está en varias transformaciones. Los procesos de procesamiento incluyen cualquier transferencia de información de los medios a otro medio. La información destinada al procesamiento se llama datos. El tipo principal de procesamiento de información primaria obtenida por varios aparatos es la transformación en una forma que garantiza su percepción por los sentidos humanos por parte de los órganos. Por lo tanto, las fotografías del espacio, obtenidas en las radiografías, se convierten en fotografías de color convencionales utilizando convertidores especiales de espectro y materiales fotográficos. Los dispositivos de visión nocturna convierten la imagen obtenida en los rayos infrarrojos (térmicos) en la imagen en el rango visible. Para algunas tareas de comunicación y gestión, es necesario convertir información analógica. Esto utiliza convertidores de señal analógica analógica y analógica.

El tipo de procesamiento de información semántica más importante es la definición de significado (contenido), que consiste en un determinado mensaje. A diferencia de la información semántica primaria no tiene estadístico Características, es decir, una medida cuantitativa: el significado es allí o no lo es. Y cuánto es si es si es, es imposible de instalar. El significado descrito en el mensaje se describe en un lenguaje artificial que refleja los vínculos semánticos entre las palabras del texto de origen. Un diccionario de tal lenguaje llamado Thesaurus está en el receptor de mensajes. El significado de las palabras y frases del mensaje está determinado por su asignación a ciertos grupos de palabras o frases, cuyo significado ya está instalado. Thesaurus, por lo tanto, le permite establecer el significado del mensaje y, al mismo tiempo, se repone con nuevos conceptos semánticos. El tipo de procesamiento de información descrito se utiliza en sistemas de recuperación de información y sistemas de traducción automática.

Uno de los tipos más extendidos de procesamiento de información es la solución de tareas informáticas y tareas de control automáticas utilizando máquinas de computación. El procesamiento de la información siempre se realiza con algún propósito. Para lograrlo, debe conocerse el procedimiento de acción sobre la información que conduzca a un propósito determinado. Este procedimiento se llama algoritmo. Además del algoritmo, también se necesita algún dispositivo que implementa este algoritmo. En las teorías científicas, dicho dispositivo se llama una máquina. Se ha observado como la característica más importante de la información que debido a la asimetría de la interacción de la información en el procesamiento de información existe una nueva información, y la información inicial no se pierde .

Información analógica y digital.

El sonido es las oscilaciones de las olas en cualquier entorno, por ejemplo, en el aire. Cuando una persona dice, la oscilación de los ligamentos de la garganta se transforma en las fluctuaciones del aire de la onda. Si consideramos el sonido no como una onda, sino como oscilaciones en un momento, entonces estas oscilaciones pueden representarse a medida que la presión del aire varió en el tiempo. Usando un micrófono, puede tomar cambios en la presión y convertirlos a un voltaje eléctrico. Hubo una transformación de la presión del aire en las oscilaciones de voltaje eléctrico.

Tal transformación puede ocurrir de acuerdo con varias leyes, la mayoría de las veces, la transformación se produce de acuerdo con la ley lineal. Por ejemplo, tal:

U (t) \u003d k (p (t) -p_0),

cuando U (T) es una tensión eléctrica, P (T): la presión del aire, P_0 es la presión del aire promedio, y K es el factor de conversión.

Tanto el voltaje eléctrico como la presión del aire son funciones continuas a lo largo del tiempo. Las funciones u (t) y p (t) son información sobre las oscilaciones de los ligamentos de la garganta. Estas funciones son continuas y dicha información se llama analógica. La música es un caso particular de sonido y también se puede representar como algún tipo de función. Será una representación de música analógica. Pero la música también se registra en forma de notas. Cada NOTA tiene una duración de un múltiplo de una duración predeterminada, y altura (hasta, Re, MI, FA, sal, etc.). Si estos datos se convierten en números, recibiremos una presentación digital de música.

El discurso humano también es una ocasión privada de sonido. También se puede representar en forma analógica. Pero a medida que la música se puede romper en las notas, podemos pasar las letras. Si cada letra le da a su sede de dígitos, recibiremos una presentación digital de habla. La diferencia entre la información analógica y la digital es que la información analógica es continua y la discreta digital. Reforma de información de una especie a otra dependiendo de El tipo de conversión se llama de manera diferente: simplemente "transformación", por ejemplo, conversión analógica digital, o transformación analógica-digital; Las conversiones complejas se denominan "codificación", por ejemplo, codificación delta, codificación de entropía; La transformación entre características, como la amplitud, la frecuencia o la fase, se llama "modulación", como la modulación de frecuencia de amplitud, la modulación del pulso.

Información (información) es

Por lo general, las conversiones analógicas son bastante simples y varios dispositivos inventados con ellos fácilmente con ellos. La grabadora de la cinta convierte la magnetización en la película en el sonido, la grabadora de voz convierte el sonido a la magnetización en la película, la videocámara convierte la luz en la magnetización en la película, el oscilógrafo convierte la tensión eléctrica o la corriente en la imagen. etc. Convertir la información analógica en DIGITAL es notablemente más complicada. Algunas transformaciones no se pueden hacer ni manejar con gran dificultad. Por ejemplo, transformando el discurso en el texto, o convertir un registro de conciertos a las notas, e incluso por naturaleza su representación digital: el texto en papel es muy difícil de convertir en el mismo texto en la memoria de la computadora.

Información (información) es

¿Por qué luego use una presentación digital de información si es tan difícil? La principal garantía de información digital antes del análogo es la inmunidad de ruido. Es decir, en el proceso de copiar información, la información digital se copia como es, se puede copiar a casi un número infinito de veces, la información analógica durante el proceso de copia se afloja, su calidad se deteriora. Por lo general, la información analógica se puede copiar no más de tres veces. Si tiene una grabadora de cinta de audio de dos cassette, puede hacer un experimento de este tipo, intente reescribir varias veces desde el cassette en la cinta una y la misma canción, después de algunos Tales sobrescrituras, notará cuánta calidad de grabación planeada. La información en el cassette se almacena en forma analógica. Música en formato MP3 Puede reescribir cuánto tiempo, y la calidad de la música no se deteriora. La información en el archivo MP3 se mantiene en forma digital.

Número de información

Una persona o algún otro receptor de información, que recibe una parte de la información, permite una incertidumbre. Tomemos, por ejemplo, todo es también un árbol. Cuando vimos un árbol, permitimos una serie de incertidumbres. Aprendimos la altura del árbol, la vista de árbol, la densidad del follaje, el color de las hojas y, si es un árbol frutal, vimos frutas en ella, en lo que a la maduren, etc. Antes de mirar el árbol, no sabíamos todo esto, después de que miramos el árbol, permitimos la incertidumbre, la información recibida.

Si vamos a la pradera y lo miramos, entonces obtendremos la información de otro tipo, por lo que la pradera es grande, como una hierba alta y de qué color hierba. Si un biólogo sale al mismo prado, entonces podrá averiguarlo: qué grados de hierbas crecen en un prado, qué tipo de pradera verá qué flores florecieron, lo que solo florece, ya sea que la pradera sea adecuada. Para vacas de pastoreo, etc. Es decir, recibirá la cantidad de información más que nosotros, ya que él, antes de que mirara a la pradera, había más preguntas, el biólogo permitiría una mayor incertidumbre.

Información (información) es

Se permitió la gran incertidumbre en el proceso de obtener información, más información que recibimos. Pero esta es una medida subjetiva del número de información, y nos gustaría tener una medida objetiva. Hay una fórmula para calcular el número de información. Tenemos cierta incertidumbre, y tenemos una cantidad de casos de resolución de incertidumbre, y cada caso tiene alguna probabilidad de permiso, entonces el número de información recibida se puede calcular de acuerdo con la siguiente fórmula que Shannon nos ofreció:

I \u003d - (p_1 log_ (2) p_1 + p_2 log_ (2) p_2 + ... + p_n log_ (2) p_n), donde

I - la cantidad de información;

N - el número de resultados;

p_1, P_2, ..., P_n- Probabilidad de resultado.

Información (información) es

La cantidad de información se mide en bits: reducción de palabras en inglés de dígitos binarios, lo que significa dígito binario.

Para eventos equivalentes, la fórmula se puede simplificar:

I \u003d log_ (2) n, donde

I - la cantidad de información;

N - El número de resultados.

Tomemos, por ejemplo, una moneda y tírela sobre la mesa. Caería, ya sea por un águila o un hombre. Tenemos 2 eventos equivalentes. Después de arrojar una moneda, obtuvimos el registro (2) 2 \u003d 1 bit de información.

Vamos a tratar de averiguar cuánta información obtenemos después de lanzar un cubo. Cube tiene seis caras: seis eventos equivalentes. Obtenemos: log_ (2) 6 aprox. 2.6. Después de arrojar un cubo en la mesa, obtuvimos aproximadamente 2.6 bits de información.

La probabilidad de que veamos el dinosaurio marciano cuando salimos de la casa es igual a uno de diez mil millones. ¿Cuánta información conseguimos sobre el dinosaurio marciano después de salir de la casa?

Izquierda ((((1 sobre (10 ^ (10))) log_2 (1 sobre (10 ^ (10))) + izquierda ((1 - (1 sobre (10 ^ (10)))) iDIGH) log_2 a la izquierda (( 1 - (1 sobre (10 ^ (10)))) iDIGHT)) iDIGHT) APROX 3.4 CDOT 10 ^ (- 9) BIT.

Supongamos que tiramos 8 monedas. Tenemos 2 ^ 8 opciones para caídas de monedas. Entonces, después de lanzar monedas, obtenemos log_2 (2 ^ 8) \u003d 8 bits de información.

Cuando hagamos la pregunta y podemos en una probabilidad igual de obtener la respuesta "Sí" o "No", luego, después de responder a la pregunta, obtenemos un poco de información.

Es sorprendente que si aplica la fórmula de Shannon para obtener información analógica, obtendremos una cantidad infinita de información. Por ejemplo, el voltaje en el punto del circuito eléctrico puede recibir un valor equilibrio de cero a un voltio. El número de resultados. Somos igualmente infinitos y, sustituyendo este valor en la fórmula para eventos igualmente ventos, obtenemos el infinito, una cantidad infinita de información.

Ahora mostraré cómo codificar "guerra y paz" con solo un riesgo en cualquier varilla de metal. Limpie todas las letras y letreros encontrados en " guerra Y el mundo ", con la ayuda de números de dos dígitos, deberían ser suficientes para nosotros. Por ejemplo, la letra "A" le da el código "00", la letra "B": el código "01" y así sucesivamente, codificamos los signos de puntuación, letras latinas y números. Recodula " guerra Y el mundo "Con este código y obtenemos un número largo, por ejemplo, como 70123856383901874 ..., dibujamos una coma y cero antes de este número (0.70123856383901874 ...). Resultó el número de cero a uno. Poner riesgo En la varilla de metal para que la proporción del lado izquierdo de la varilla hasta la longitud de esta barra sea solo nuestro número. Por lo tanto, si de repente queremos leer la "guerra y el mundo", simplemente midemos la parte izquierda de la barra a riesgos Y la longitud de toda la varilla, dividimos un número a otro, obtenemos un número y nos recuerdo de nuevo en las letras ("00" en "A", "01" en "B", etc.).

Información (información) es

Es real que no tendremos éxito, ya que no podremos determinar las longitudes con precisión infinita. Aumente la precisión de la medición, interferimos con algunos problemas de ingeniería, y la física cuántica nos muestra que después de un cierto límite, ya interferiremos con las leyes cuánticas. Nos queda claro que la menor precisión de la medición, menos información que recibimos, y mayor será la precisión de la medición, más información que obtenemos. La fórmula de Shannon no es adecuada para medir el número de información analógica, pero para esto hay otros métodos que se consideran en la "teoría de la información". En la tecnología informática, el bit corresponde al estado físico del portador de información: magnético - no magnetizado, hay un orificio, sin orificio, cargado, no cargado, refleja la luz, no refleja la luz, el alto potencial eléctrico: bajo eléctrico potencial. En este caso, se acepta un estado para indicar un número 0, y otro - Dígito 1. Puede codificar cualquier información: Texto, imagen, sonido, etc.

Junto con el bit, el valor llamado por el byte se usa a menudo, generalmente es igual a 8 bits. Y si el bit le permite elegir una versión igual de las dos posibles, entonces el byte - 1 de 256 (2 ^ 8). Para medir el número de información, también se hacen unidades más grandes:

1 KB (un kilobyte) 210 bytes \u003d 1024 bytes

1 MB (Un Megabyte) 210 KB \u003d 1024 KB

1 GB (un gigabyte) 210 MB \u003d 1024 MB

Las consolas realmente Cilo-, mega, las gigas deben usarse para multiplicadores 10 ^ 3, 10 ^ 6 y 10 ^ 9, respectivamente, pero históricamente ha habido una práctica de usar multiplicadores con detects.

Bit en Shannon y BIT, que se usa en técnico informático, coincide si las probabilidades aparecen cero o las unidades en una mordida de computadora son iguales. Si las probabilidades no son iguales, entonces la cantidad de información sobre Shannon se vuelve más pequeña, vimos en el ejemplo del dinosaurio marciano. Una cantidad de información de computadora da una evaluación superior del número de información. La memoria dependiente de la energía después de que el suministro de energía se inicialice normalmente por algún valor, por ejemplo, todas las unidades o todos los ceros. Está claro que después de la fuente de alimentación a la memoria, no hay información allí, ya que los valores en las celdas de memoria se definen estrictamente, no hay incertidumbre. La memoria puede almacenar cierta cantidad de información en sí misma, pero después de solicitarla, ninguna información no está disponible.

Desinformación: obviamente falsa información proporcionada por el enemigo o un socio comercial para un funcionamiento más eficiente de las hostilidades, la cooperación, las verificaciones de la fuga de la información y la dirección de su fuga, identificando a los clientes potenciales del mercado negro. También la desinformación (también la desinformación) es Se llama el proceso de manipulación del proceso en sí, como: introducir la enfermedad engañosa de alguien al proporcionar información incompleta o completar, pero ya no es la información necesaria, la distorsión del contexto, la distorsión de parte de la información.

El propósito de tal impacto es siempre uno, el oponente debe hacer lo que sea necesario para el manipulador. El acto de un objeto contra el cual se dirige la información errónea puede ser en la solución necesaria para el manipulador o al negarse a tomar una decisión desfavorable para el manipulador. Pero en cualquier caso, el objetivo final es una acción que se tomará el oponente.

La desinformación es así producto Actividad humana, un intento de crear una impresión falsa y, en consecuencia, presionar las acciones y / o la inacción deseadas.

Información (información) es

Tipos de desinformación:

Introducción de una persona en particular o grupo de personas (incluida una nación entera);

Manipulación (acciones de una persona o grupo de personas);

Creando una opinión pública sobre algún tipo de problema u objeto.

Información (información) es

La introducción no es otra cosa que no sea un engaño directo, proporcionando información falsa. La manipulación es una forma de exposición dirigida directamente a cambiar la dirección de la actividad de las personas. Se distinguen los siguientes niveles de manipulación:

Fortalecimiento existente en la mente de las personas ventajosas a los valores de manipulador (ideas, instalaciones);

Cambio parcial en las vistas a un evento o circunstancia particular;

Cambio cuidadoso en las plantas de vida.

Crear una opinión pública es la formación de cierta actitud hacia el problema elegido en la sociedad.

Fuentes y enlaces

ru.wikipedia.org - Enciclopedia gratis de Wikipedia

youtube.com - Alojamiento de video YouTube

imagenes.yandex.ua - Fotos yandex

google.com.ua - Google Pictures

ru.wikibooks.org - Viki Co-Bank

inf1.info - Planeta Informática

old.russ.ru - Journal ruso

shkolo.RU - Directorio de información

5Byte.RU - Sitio de informática

sSTI.RU - Tecnología de la información

klgtu.ru - informatika

informatika.sch880.ru - Informática del sitio web del profesor O.V. SOBOTSEVA

Enciclopedia de estudios culturales.

El concepto principal de cibernética, de la misma manera económica I. El concepto principal de cibernética económica. Las definiciones de este término son mucho, son complejas y contradictorias. La razón de esto es obviamente que yo. Cómo se compromete el fenómeno ... ... Economía y diccionario matemático


Estamos utilizando cookies para la mejor presentación de nuestro sitio. Continuando usando este sitio, estás de acuerdo con esto. está bien.