escuela73abasto.files.wordpress.com€¦  · web viewnuevas tecnologías de la información y la...

25
PLAN DE CONTINUIDAD PEDAGOGICA revisión anual Nuevas Tecnologías de la Información y la Conectividad (NTICx) DOCENTE: Benjamin De La Canal CICLO LECTIVO: 2020 Responder las siguientes preguntas: 1) Da una definición completa de computadora. Explica que es el software y el hardware. Nombra periféricos de computadora :de entrada ,de salida y almacenamiento. 2) ¿Explica que es la informática? IMPORTANTE: Enviar junto con el Trabajo Práctico los siguientes datos: - Apellido y Nombre del alumno - Curso y división - Turno - Escuela - El trabajo práctico revisión anual se puede enviar a las siguientes direcciones: benjamindelacanal@hotmail .com O wasap al 221 5992202.

Upload: others

Post on 16-Feb-2021

5 views

Category:

Documents


0 download

TRANSCRIPT

PLAN DE CONTINUIDAD PEDAGOGICA revisión anual

Nuevas Tecnologías de la Información y la Conectividad (NTICx)

DOCENTE: Benjamin De La Canal

CICLO LECTIVO: 2020

IMPORTANTE:

Enviar junto con el Trabajo Práctico los siguientes datos:

· Apellido y Nombre del alumno

· Curso y división

· Turno

· Escuela

· El trabajo práctico revisión anual se puede enviar a las siguientes direcciones: benjamindelacanal@hotmail .com

O wasap al 221 5992202.

Responder las siguientes preguntas:

1) Da una definición completa de computadora.

Explica que es el software y el hardware.

Nombra periféricos de computadora :de entrada ,de salida y almacenamiento.

2) ¿Explica que es la informática?

3) Habla sobre los sistemas operativos: para que sirven? Que tipos de sistemas operativos?

4) ¿Qué es un programa informático Y un lenguaje de programación?

5) ¿Qué es el software libre y el software propietario?¿ Cuáles son sus principales características?

6) Explica los siguientes servicios web: La nube, Big Data , realidad virtual aumentada.

7) ¿Qué son los nómadas digitales?

8) REDES INFORMATICAS

A)¿Qué es una red informática? ;

B) ¿Qué es la banda ancha? ;

C) ¿Qué es la tasa de transferencia? ;

D) ¿Qué es un protocolo de internet?

10) Internet:

A) ¿Qué es internet?

b) ¿Qué es un portal web?

c) ¿Qué es un navegador web?

11) ¿Que es un virus informático? Da ejemplos de virus: nombres y características.

12) ¿Qué es un antivirus informático? Describe sus características.

13)¿Qué es el groooming?

14)¿Qué es la robótica? Ejemplifica.

15)¿Qué es la inteligencia artificia? Ejemplifica.

Información para realizar el trabajo practico anual

Hardware principal de una computadora personal:  1. Monitor.  2. Placa principal.  3. Microprocesador (CPU) y zócalo.  4. Un módulo de RAM y tres ranuras.  5. Dos tarjetas de expansión y tres ranuras.  6. Fuente de alimentación.  7. Unidad de disco óptico (CD; DVD; BD).  8. Unidad de disco duro o unidad de estado sólido.  9. Teclado.10. Ratón.

La palabra hardware en informática se refiere a las partes físicas, tangibles, de un sistema informático, sus componentes eléctricos, electrónicos, electromecánicos y mecánicos.1 Los cables, así como los gabinetes o cajas, los periféricos de todo tipo, y cualquier otro elemento físico involucrado, componen el hardware o soporte físico; contrariamente, el soporte lógico e intangible es el llamado software.

El término es propio del idioma inglés, y su traducción al español no tiene un significado acorde, por tal motivo se lo ha adoptado tal cual es y suena. La Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora».2 El término, aunque sea lo más común, no solamente se aplica a las computadoras, también es a menudo utilizado en otras áreas de la vida diaria y la tecnología. Por ejemplo, hardware también se refiere a herramientas y máquinas, y en electrónica hardware se refiere a todos los componentes electrónicos, eléctricos, electromecánicos, mecánicos, cableados y tarjetas de circuitos impresos.

Otros ejemplos donde se aplica el término hardware son, en relación a los robots,34 así como en relación a los teléfonos móviles, las cámaras fotográficas, los reproductores digitales, o cualquier otro dispositivo electrónico. Cuando dichos dispositivos también procesan datos, poseen firmware y/o software además de hardware.

La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una primera delimitación podría hacerse entre hardware principal (véase figura), como el estrictamente necesario para el funcionamiento normal del equipo, y el «complementario», como el que realiza funciones específicas.

El hardware principal de un computador se compone de una unidad central de procesamiento(CPU), encargada de procesar los datos; una memoria rápida de trabajo para almacenamiento temporal; una unidad de almacenamiento fija para mantener software y datos así como extraerlos de ella; uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, que posibilitan dar salida (normalmente en forma visual, impresa o auditiva) a los datos procesados.

Software

Se conoce como software al soporte lógico de un sistema informático, que comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos que son llamados hardware. La interacción entre el software y el hardware hace operativo un ordenador (u otro dispositivo), es decir, el Software envía instrucciones que el Hardware ejecuta, haciendo posible su funcionamiento.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas, tales como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el llamado software de sistema, tal como el sistema operativo, que básicamente permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.

El software en su gran mayoría, está escrito en lenguajes de programación de alto nivel, ya que son más fáciles y eficientes para que los programadores los usen, porque son más cercanos al Lenguaje natural respecto del lenguaje de máquina. Los lenguajes de alto nivel se traducen a lenguaje de máquina utilizando un compilador o un intérprete, o bien una combinación de ambos. El software también puede estar escrito en lenguaje ensamblador, que es de bajo nivel y tiene una alta correspondencia con las instrucciones de lenguaje máquina; se traduce al lenguaje de la máquina utilizando un ensamblador.

Existen varias definiciones similares aceptadas para software, pero probablemente la más formal sea la siguiente:

Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados, que forman parte de las operaciones de un sistema de computación.

Extraído del estándar 729 del IEEE

Considerando esta definición, el concepto de software va más allá de los programas de computación en sus distintos estados: código fuente, binario o ejecutable; también su documentación, los datos a procesar e incluso la información de usuario forman parte del software: es decir, abarca todo lo intangible, todo lo «no físico» relacionado.

El término software fue usado por primera vez en este sentido por John W. Tukey en 1957. En la ingeniería de software y las ciencias de la computación, el software es toda la información procesada por los sistemas informáticos: programas y datos.

El concepto de leer diferentes secuencias de instrucciones (programa) desde la memoria de un dispositivo para controlar los cálculos fue introducido por Charles Babbage como parte de su máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue propuesta por Alan Turing en su ensayo de 1936, «Los números computables», con una aplicación al problema de decisión.

Clasificación del software

Se puede clasificar al software en tres tipos:

· Software de sistema: Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles del sistema informático en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, controladores, herramientas y utilidades de apoyo que permiten el mantenimiento del sistema global. Incluye entre otros:

· Sistemas operativos (Ej: Windows, Linux, Android)

· Controladores de dispositivos

· Herramientas de diagnóstico

· Herramientas de corrección y optimización

· Servidores

· Utilidades

· Software de programación: Es el conjunto de herramientas que permiten al programador desarrollar programas de informática, usando diferentes alternativas y lenguajes de programación, de una manera práctica. Incluyen en forma básica:

· Editores de texto

· Compiladores

· Intérpretes

· Enlazadores

· Depuradores

· Entornos de desarrollo integrados (IDE): Agrupan las anteriores herramientas, usualmente en un entorno visual, de forma tal que el programador no necesite introducir múltiples comandos para compilar, interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).

· Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre muchos otros:

· Aplicaciones para Control de sistemas y automatización industrial

· Aplicaciones ofimáticas (Ej: Microsoft Word, Microsoft Power point)

· Software educativo

· Software empresarial

· Bases de datos

· Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)

· Videojuegos

· Software médico

· Software de cálculo numérico y simbólico.

· Software de diseño asistido (CAD)

· Software de control numérico (CAM)

·

programa informático

En informática, se les denomina comúnmente binarios, propio en sistemas Unix, donde debido a la estructura de este último, los ficheros no necesitan hacer uso de extensiones. Posteriormente, los presentaron como ficheros ejecutables, con extensión .exe, en los sistemas operativos de la familia Windows debido a que una vez que han pasado por el proceso de compilación y han sido creados, las instrucciones que se escribieron en un lenguaje de programación que los humanos usan para escribirlos con mayor facilidad, se han traducido al único idioma que la máquina comprende, combinaciones de ceros y unos llamada código máquina. El mismo término, puede referirse tanto a un programa ejecutable, como a su código fuente, el cual es transformado en un binario cuando es compilado.

Generalmente el código fuente lo escriben profesionales conocidos como programadores. Se escribe en un lenguaje que sigue uno de los siguientes dos paradigmas: imperativo o declarativo y que posteriormente puede ser convertido en una imagen ejecutable por un compilador. Cuando se pide que el programa sea ejecutado, el procesador ejecuta instrucción por instrucción.

De acuerdo a sus funciones, se clasifican en software de sistema y software de aplicación. En los computadores actuales, al hecho de ejecutar varios programas de forma simultánea y eficiente, se le conoce como multitarea.

Funcionamiento

El comportamiento de un programa depende del tipo de lenguaje usado para escribirlo. En cualquier caso, casi todos los lenguajes de programación se basan en el mismo principio: el programa consiste en un conjunto de comandos que el equipo debe ejecutar.

El equipo ejecuta los comandos a medida que va leyendo el archivo (de arriba hacia abajo) hasta que alcanza un comando (al que a menudo se hace referencia como un comando ramificado) que ordena al equipo ir a una ubicación específica del programa. En cierto modo, se parece a la búsqueda del tesoro, donde el equipo debe seguir las pistas y ejecutar los comandos hasta alcanzar el final del programa y detenerse.

Forma de ejecución

Una vez escritos, los programas pueden ser ejecutados de diversas formas:

1. Mediante un programa que va adaptando las instrucciones conforme son encontradas. A este proceso se lo llama interpretar y a los programas que lo hacen se los conoce como intérpretes. Ejemplos de esto son bash, clásico en estaciones Unix y que fue escrito para el proyecto GNU o Python, cuya peculiaridad además de ser multipropósito, está en su facilidad de uso y productividad y de hecho, es usado en parte de los proyectos Google y YouTube.

2. Traduciendo el código escrito del programa (lo que se denomina código fuente), a su equivalente en lenguaje máquina. A este proceso se le llama compilar y al programa traductor se le denomina compilador. Ejemplos de esto son: El lenguaje C, que combina en su sintaxis características de medio y bajo nivel y el compilador gcc usado en el proyecto GNU.

Software Libre frente a Software Propietario: legislación y modelos de negocio

15 juliol 2013 | Categoritzat sota: Notícies and tagged with: Legislació, Models de negoci, Programari lliure, Programari propietari

Una traducción poco aproximada o interesada de los términos free software (software libre) y propietary software (software propietario) ha producido una gran confusión en la identificación de los modelos de negocio que tienen en el software su base de rentabilidad. Frecuentemente se ha traducido el término free como gratis y propietary como privativo o de pago, llegándose a establecer que la diferencia entre ambos tipos es una cuestión de dinero, siendo el software libre siempre gratuito y el software propietario un producto de pago.

No obstante, esta definición resulta inapropiada porque no recoge el verdadero sentido que los defensores del software libre quieren darle a su movimiento, ya que para ellos el término libre (free) se refiere a <> en lugar del sentido puramente económico que se le suele atribuir. De hecho, existen modelos de negocio que están basados en la comercialización del software libre, siendo posible ganar dinero con su fabricación, distribución y venta. El movimiento del software libre tiene un trasfondo filosófico y moral que considera la garantía de libertades como un requisito esencial para conseguir el bien de la sociedad en su conjunto, fomentando con su ejercicio los valores de compartir y cooperar que conducen a la solidaridad social, la cual se ve aún más favorecida por el contexto cultural en el que vivimos caracterizado por la interconexión entre las personas a nivel mundial gracias al democratización del uso de Internet y el protagonismo de las TIC.

El software libre está pasando de ser minoritario a ser empleado de forma generalizada por millones de personas alrededor del mundo. Durante mucho tiempo (y la informática no tiene tantos años de historia) monopolios como el de Windows han sido prácticamente la única opción en la que las personas habían depositado su confianza. En los últimos años, estamos asistiendo a un cambio de paradigma y hay empresas y gobiernos (España, Venezuela, Ecuador, Uruguay, Corea, Italia, Francia, etc.) que han decidido apostar por modelos de negocio basados en la creación de soluciones libres y en la utilización de programas producidos bajo este signo para resolver las transacciones de sus procesos de gestión. La alta calidad de los programas y la posibilidad de ahorrar grandes cantidades de dinero en la adquisición de licencias, entra otras razones, han favorecido la elección de la nueva estrategia.

La diferencia entre software libre y software propietario tiene bastante de componente jurídico y se trata esencialmente de una cuestión de garantía de libertades. Un software será libre cuando permita a los usuarios, que adquirieron el producto, poder ejecutarlo, copiarlo y estudiarlo, incluso distribuirlo modificado, garantizando las siguientes libertades:

· La libertad de usar el programa, con cualquier propósito (libertad 0).

· La libertad de estudiar cómo funciona el programa, y adaptarlo a sus necesidades (libertad 1).

· La libertad de distribuir copias, con lo que puedes ayudar a tu vecino (libertad 2), y

· La libertad de mejorar el programa y hacer públicas las mejoras a los demás, de modo que toda la comunidad se beneficie (libertad 3).

Conforme a lo anterior, podemos adoptar la denominación de software no libre para designar al software privativo considerándolo así como una concepción opuesta a software libre, no ya por el hecho de tener que pagar dinero para adquirirlo o utilizarlo, sino porque sus productores, a diferencia de los programadores libres, deciden licenciar sus soluciones conforme a leyes y principios que no contemplan la garantía de ninguna de las libertades anteriores.

Diferencias entre Libre y Privativo: propiedad intelectual y licencias GPL

El movimiento del software libre lleva desde la década de los ’80 haciendo campaña a favor de la libertad de los usuarios de ordenador. Richard Stallman cuenta que por aquellos años, en el laboratorio donde trabajaba tuvieron dificultades con una impresora  que les había donado una empresa. El dispositivo, empleado en red, solía atascarse sin previo aviso y los trabajadores, a menos que se acercaran directamente, no podían saber si el periférico estaba funcionando correctamente. Como consecuencia, la pérdida de tiempo era constante  y resultaba ineficaz en términos de workflow, ya que en numerosas ocasiones los trabajadores enviaban sus documentos a imprimir y al ir a buscarlos se encontraban la impresora atascada y una cola enorme de trabajos pendientes. Entonces Stallman decidió que iba a arreglar el problema mediante la implementación de un aviso que sería enviado por red cuando la impresora se bloqueara. Solicitó a la empresa propietaria poder acceder al código fuente de los controladores de la impresora,  comentándoles, sin pedirles nada a cambio, lo que quería hacer. A pesar de todo, la empresa finalmente acabó negándose a que se pudiera acceder al código.

El episodio anterior fue determinante para que Stallman se decantase por el software libre. En 1984 comenzó el proyecto GNU y un año más tarde creó la Free Software Foundation (FSF) y definió el concepto de “copyleft“. Este último es un concepto jurídico opuesto a copyright, ideado para regularizar la concepción de libertad de expresión asociada al software libre y determinar los límites, diferentes de los propios del software privativo, en los que se encuadran las operaciones de distribución, producción y utilización del software considerado libre. Se marcaba así un antes y un después en el uso y disfrute del software, abriendo una brecha en un sector en el cual la tónica general había sido que determinadas empresas, amparadas en las leyes de propiedad intelectual y con apoyo de los gobiernos en muchos casos (González Barahona, 2002: 51-56), habían visto una gran oportunidad de negocio en la venta de software con grandes restricciones de uso, cubriendo con sus creaciones necesidades generalistas de una gran masa de usuarios.

La ley española de propiedad intelectual es la encargada de regular, a través de su título VII (artículos 95-104), la protección de los derechos de autor de los creadores de los programas de ordenador. La protección incluye al programa, a la documentación que lo acompaña, las versiones posteriores, las obras derivadas y los derechos de autor y de explotación de los productores legítimos, como si se trataran de grabaciones discográficas o un libro impreso (González Barahona, 2004: 7-12). En el artículo 99 se regulariza lo referente a los derechos de explotación, es decir, lo que se considera como acciones y usos dignos de protección. Según dicho artículo, la ley prohibirá a todo aquel que no sea el titular de estos derechos la reproducción total o parcial; la traducción, adaptación, arreglo o cualquier otra transformación y las formas de distribución pública incluido el alquiler del programa de ordenador original o de sus copias.

Por contraposición, el artículo 100 contiene las “libertades del usuario” o lo que éste  podrá hacer al margen del uso normal del programa sin que por ello incurra en ilegalidad. Podrá reproducir o transformar programas de ordenador incluida la corrección de errores, cuando dichos actos sean necesarios para la utilización del mismo por parte del usuario; podrá realizar copias de seguridad cuando sean necesarias para la utilización del programa; podrá observar, estudiar o verificar su funcionamiento, sin autorización previa del titular, con el fin de determinar las ideas y principios implícitos en cualquier elemento del programa, siempre que lo haga durante cualquiera de las operaciones de carga, visualización, ejecución, transmisión o almacenamiento del programa; y podrá reproducir y traducir el código cuando estas prácticas sean indispensable para obtener la información necesaria para la interoperabilidad de un programa creado de forma independiente con otros programas.

El software libre también cuenta con sus propias medidas de protección, representadas por la gran variedad de licencias GPL existentes. Organismos de referencia como la Free Software Foundation mantienen en sus webs oficiales listados de las licencias de software libre que aprueban. Estos instrumentos jurídicos regulan el funcionamiento de los mecanismos de redistribución, creación y copia de los mismos cuya forma de aplicación permite garantizar las libertades que caracterizan al movimiento del software libre. No obstante, se pueden encontrar diferentes matices dependiendo del tipo de licencia GPL empleada.

La más utilizada actualmente es la licencia GNU GPL, la cual es, sin embargo, la más restrictiva de todas. El autor del programa conserva intactos sus derechos patrimoniales (copyright), pero con la variante de permitir la redistribución y modificación siempre que se asegure que todas las versiones sucesivas permaneceran bajo los términos de la propia licencia. Es decir, el conjunto resultante tiene que ser íntegramente GNU GPL. Esta exclusividad ha hecho que esta licencia tenga sus críticos sobre todo en lo referente a la libertad 3 (libertad de mejorar el programa y hacer públicas las mejoras a los demás), ya que los programadores se ven, en la versión actual de la licencia, imposibilitados para reutilizar o mezclar en sus trabajos códigos de dos licencias distintas, pese a que las libertades que el software libre contempla, teóricamente, lo deberían permitir. Esta restricción ha dividido las licencias en dos grandes grupos: aquellas que pueden ser mezcladas con la Licencia GNU GPL para terminar integrándose con esta última y las que no pueden ser enlazadas con código GNU GPL y en consecuencia se utilizan de forma independiente dando lugar a sus propios proyectos.

Entre las licencias afines a GNU GPL se encuentra la AGPL (Licencia Pública General de Affero), diseñada específicamente para asegurar la cooperación con la comunidad en el caso de software que corra en servidores de red. Las licencias BSD son también compatibles con GNU GPL. El autor mantiene el copyright para requerir la atribución de autoría en trabajos derivados, pero permite la libre redistribución y modificación, incluso si se producen programas propietarios. Son muy permisivas y fácilmente absorbibles por GNU GPL.

El otro grupo designa a licencias independientes que no son entremezclables con GNU GPL. Destacamos la MPL (Mozilla Public License), instrumento que empleó Netscape Communications Corp. para liberar su Netscape Communicator 4.0 y empezar el proyecto Mozilla. Se utiliza en gran cantidad de productos de software libre de uso cotidiano y para todo tipo de sistemas operativos. Se la puede considerar a medio camino entre la rigidez de las GNU GPL, respecto a la cual evita su “efecto viral” sin dejar de promover la colaboración, y la excesiva permisividad de las licencias BSD.

Las disposiciones legales que protegen al software libre y al software propietario están encaminadas a proporcionar los instrumentos jurídicos sobre los que se fundamentan los modelos de negocio con los que los programas pueden convertirse en productos rentables, destinados a la comercialización y la obtención de riqueza por parte de las empresas. De la misma forma que hemos identificando diferencias legales, las estrategias que siguen las empresas para satisfacer las necesidades del usuario son claramente diferentes en función de si emplean tecnologías libres o propietarias.

Cinco nuevas tecnologías que cambiarán tu forma de trabajar

Si hay algo a lo que tenemos que estar acostumbrados en nuestro entorno de trabajo es al cambio. En los últimos años los avances tecnológicos nos han hecho evolucionar a un ritmo vertiginoso y solo las personas que sepan adaptarse a estos cambios lograrán sobrevivir en un entorno laboral cada vez más competitivo. 

Si todavía no conoces las nuevas tecnologías que están revolucionando tu lugar de trabajo, a continuación, te traemos las 5 novedades digitales más importantes en el entorno laboral:

1. La Nube

La tecnología basada en la nube ha simplificado los procesos de trabajo. Esta herramienta proporciona una mayor flexibilidad y seguridad, ya que nos permite realizar copias periódicas de seguridad y poder recuperar la información en caso de pérdida de datos. Además, tiene la ventaja de que nos permite poder acceder a nuestras carpetas y datos, desde cualquier lugar.

Gracias a esta herramienta, grandes y pequeñas empresas se benefician de un acceso rápido a la información, ahorrando costes en sistemas de hardware y software.

2. Big Data

Que el Big data es la profesión del siglo XI ya nos había quedado claro, dado el proceso de digitalización en el que estamos inmersos. El Big Data está compuesto por el gran volumen de datos que nos inunda hoy en día, pero, sobre todo, resulta muy útil entenderlo bajo un punto de vista empresarial y organizacional. Lo importante de este concepto es entender qué hacen las empresas con ese volumen tan grande de información y cómo lo utilizan a su favor para tener una mejor visión estratégica del negocio, y así tomar las mejores decisiones y alcanzar óptimos resultados. Mediante el análisis de datos, las empresas pueden explorar variables que les lleven, por ejemplo, a descubrir las tendencias de los clientes y mejorar su estrategia de marketing.

El Big Data, combinado con la inteligencia Artificial, puede resultar extremadamente útil en ámbitos como: el sector salud, la investigación, estudio de fármacos o incluso aplicada a los departamentos de compras.

3. Tecnología inalámbrica

Gracias a la tecnología inalámbrica, los trabajadores pueden conectarse desde cualquier lugar. De viaje, en casa o en una cafetería, cualquier ubicación es válida para desempeñar nuestras funciones y aumentar nuestra productividad. Además, el uso extendido de dispositivos móviles y ordenadores portátiles ayuda a mantener un contacto inmediato con clientes y compañeros de trabajo. Paralelamente y como valor añadido, una oficina con tecnología inalámbrica también crea una atmósfera más limpia y sin cables, con un espacio visual que favorece el trabajo.

4. Tecnología en vídeo

Según un estudio de Cisco, el video representará en el año 2021 un 70% del tráfico de internet en España. Este dato nos da una muestra de la gran importancia del vídeo hoy en día y el futuro que tiene por delante. El vídeo se utiliza para hacer entrevistas, comunicación entre oficinas, publicidad, desarrollo de marca, entretenimiento, etc. ¡Su crecimiento es imparable!

El vídeo también ha reducido la necesidad de tener a personas trabajando en el mismo lugar, que era el pilar de la cultura de la oficina tradicional e incluso, ha revolucionado las entrevistas de trabajo. Ya no es necesario ver al candidato en persona, los perfiles pueden ser seleccionados mediante una entrevista de trabajo por Skype.

5. Realidad virtual y Realidad Aumentada

RV y RA son dos nuevas tecnologías que se complementan entre sí. Pero ¿qué diferencia hay entre las dos? Su principal diferencia, para poder entenderlo de una manera sencilla, es que la Realidad Aumentada trabaja con objetos y elementos del mundo real, es decir, esta tecnología permite superponer elementos virtuales artificiales sobre la visión de la realidad. Por otro lado, la Realidad Virtual opera en el mundo artificial, crea un entorno de escenas y objetos de apariencia real, sobre un entorno artificial creado por ordenador. Desde el punto de vista empresarial la RA y la RV tienen la capacidad de acceder a ciertas áreas sensoriales y emocionales del cerebro.

Pero, ¿Cómo afectaran estas tecnologías en entorno de trabajo?

Hoy en día la Realidad Virtual está presente en presentaciones, charlas o ponencias en vídeo donde el interlocutor puede llevar a cabo una charla en una sala de reuniones sin necesidad de estar presente.  La Realidad Aumentada tiene un mayor impacto en sectores como el industrial, donde las competencias y procesos se pueden superponer sobre el lugar de trabajo del empleado.

Como puedes observar, los avances tecnológicos siempre han tenido un efecto revolucionario en el lugar de trabajo con el fin de facilitar los procesos y funciones,  optimizando recursos y aumentando la productividad. Saber cómo afectarán a cada uno de nosotros y en qué medida es difícil, pero, lo que sí sabemos es que los cambios tecnológicos han venido para quedarse tal y como demuestra nuestro último estudio The Future of Work, que trata sobre como afectará la Inteligencia Artificial, robótica y automatización en el puesto del trabajo del futuro. Tenemos que saber adaptarnos a ellos y aprovecharlos como nuestros absolutos aliados.

Seguridad informática

La seguridad informática, también conocida como ciberseguridad o seguridad de tecnología de la información,1 es el área relacionada con la informática y la telemática que se enfoca en la protección de la infraestructura computacional y todo lo relacionado con esta y, especialmente, la información contenida en una computadora o circulante a través de las redes de computadoras.2 Para ello existen una serie de estándares, protocolos, métodos, reglas, herramientas y leyes concebidas para minimizar los posibles riesgos a la infraestructura o a la información. La ciberseguridad comprende software (bases de datos, metadatos, archivos), hardware, redes de computadoras y todo lo que la organización valore y signifique un riesgo si esta información confidencial llega a manos de otras personas, convirtiéndose, por ejemplo, en información privilegiada.

La definición de seguridad de la información no debe ser confundida con la de «seguridad informática», ya que esta última solo se encarga de la seguridad en el medio informático, pero la información puede encontrarse en diferentes medios o formas, y no solo en medios informáticos.

La seguridad informática también se refiere a la práctica de defender las computadoras y los servidores, los dispositivos móviles, los sistemas electrónicos, las redes y los datos de ataques maliciosos.1

En resumen, la seguridad en un ambiente de red es la habilidad de identificar y eliminar vulnerabilidades. Una definición general de seguridad debe también poner atención a la necesidad de salvaguardar la ventaja organizacional, incluyendo información y equipos físicos, tales como los mismos computadores. Nadie a cargo de seguridad debe determinar quién y cuándo puede tomar acciones apropiadas sobre un ítem en específico. Cuando se trata de la seguridad de una compañía, lo que es apropiado varía de organización en organización. Independientemente, cualquier compañía con una red debe tener una política de seguridad que se dirija a la conveniencia y la coordinación.

Virus informático

Vista de un virus informático (slammer) en el destino System32

Un virus o virus informáticon. 1 es un software que tiene por objetivo alterar el funcionamiento normal de cualquier tipo de dispositivo informático, sin el permiso o el conocimiento del usuario principalmente para lograr fines maliciosos sobre el dispositivo. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en una computadora, aunque también existen otros más inofensivos, que solo producen molestias o imprevistos.

Los virus informáticos tienen básicamente la función de propagarse a través de un software, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil. El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, incluso cuando el programa que lo contenía haya terminado de ejecutar. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.

El primer virus atacó a una máquina IBM Serie 360 (y reconocido como tal). Fue llamado Creeper, (ENMS) creado en 1972. Este programa emitía periódicamente en la pantalla el mensaje: «I'm the creeper... catch me if you can!» («¡Soy una enredadera... Atrápame si puedes!»). Para eliminar este problema se creó el primer programa antivirus denominado Reaper (segador).

Sin embargo, el término virus no se adoptaría hasta 1984, pero estos ya existían desde antes. Victor Vyssotsky, Robert Morris Sr. y Doug McIlroy, investigadores de Bell Labs (se cita erróneamente a Dennis Ritchie o Ken Thompson como cuarto coautor) desarrollaron un juego de ordenador llamado Darwin (del que derivará Core Wars) que consiste en eliminar al programa adversario ocupando toda la RAM.1

Después de 1984, los virus han tenido una gran expansión, desde los que atacan los sectores de arranque de disquetes hasta los que se adjuntan en un correo electrónico.

Red de computadoras

Una red de computadoras (también llamada red de ordenadores o red informática) es un conjunto de equipos nodos y software conectados entre sí por medio de dispositivos físicos o inalámbricos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.1

Como en todo proceso de comunicación, se requiere de un emisor, un mensaje, un medio y un receptor. La finalidad principal para la creación de una red de ordenadores es compartir los recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la información, aumentar la velocidad de transmisión de los datos y reducir el costo. Un ejemplo es Internet, el cual es una gran red de millones de ordenadores ubicados en distintos puntos del planeta interconectados básicamente para compartir información y recursos.

La estructura y el modo de funcionamiento de las redes informáticas actuales están definidos en varios estándares, siendo el más importante y extendido de todos ellos el modelo TCP/IP utilizado como base para el modelo de referencia OSI. Este último, concibe cada red como estructurada en siete capas con funciones concretas pero relacionadas entre sí (en TCP/IP se habla de cuatro capas). Debe recordarse que el modelo de referencia OSI es una abstracción teórica, que facilita la comprensión del tema, si bien se permiten ciertos desvíos respecto a dicho modelo.

Existen multitud de protocolos repartidos por cada capa, los cuales también están regidos por sus respectivos estándares.2

Robótica

La robótica es la rama de la ingeniería mecánica, de la ingeniería eléctrica, de la ingeniería electrónica, de la ingeniería biomédica, y de las ciencias de la computación, que se ocupa del diseño, construcción, operación, estructura, manufactura, y aplicación de los robots.12

La robótica combina diversas disciplinas como la mecánica, la electrónica, la informática, la inteligencia artificial, la ingeniería de control y la física.3 Otras áreas importantes en robótica son el álgebra, los autómatas programables, la animatrónica y las máquinas de estados.

El término robot se popularizó con el éxito de la obra R.U.R. (Robots Universales Rossum), escrita por Karel Čapek en 1920. En la traducción al inglés de dicha obra la palabra checa robota, que significa trabajos forzados o trabajador, fue traducida al inglés como robot.4

Inteligencia artificial

«IA» redirige aquí. Para otras acepciones, véase IA (desambiguación).

La inteligencia artificial (IA) es la inteligencia llevada a cabo por máquinas. En ciencias de la computación, una máquina «inteligente» ideal es un agente flexible que percibe su entorno y lleva a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea.1 Coloquialmente, el término inteligencia artificial se aplica cuando una máquina imita las funciones «cognitivas» que los humanos asocian con otras mentes humanas, como por ejemplo: «percibir», «razonar», «aprender» y «resolver problemas».2 Andreas Kaplan y Michael Haenlein definen la inteligencia artificial como «la capacidad de un sistema para interpretar correctamente datos externos, para aprender de dichos datos y emplear esos conocimientos para lograr tareas y metas concretas a través de la adaptación flexible».3 A medida que las máquinas se vuelven cada vez más capaces, tecnología que alguna vez se pensó que requería de inteligencia se elimina de la definición. Por ejemplo, el reconocimiento óptico de caracteres ya no se percibe como un ejemplo de la «inteligencia artificial» habiéndose convertido en una tecnología común.4 Avances tecnológicos todavía clasificados como inteligencia artificial son los sistemas de conducción autónomos o los capaces de jugar al ajedrez o al Go.5

Según Takeyas (2007) la IA es una rama de las ciencias computacionales encargada de estudiar modelos de cómputo capaces de realizar actividades propias de los seres humanos con base en dos de sus características primordiales: el razonamiento y la conducta.6

En 1956, John McCarthy acuñó la expresión «inteligencia artificial», y la definió como «la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes».7

También existen distintos tipos de percepciones y acciones, que pueden ser obtenidas y producidas, respectivamente, por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.

Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería, el transporte, las comunicaciones y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia, como ajedrez de computador, y otros videojuegos.

Engaño pederasta

Niños y niñas de muy temprana edad navegando en entornos virtuales.

Un engaño pederasta,1más conocido por el anglicismo grooming (del verbo groom que alude a conductas de acercamiento o preparación para un determinado fin) o ciberacoso,2es una serie de conductas y acciones emprendidas por un adulto, a través de Internet,3 para entablar un vínculo y ejercer control emocional sobre un o una menor de edad, con el fin de abusar sexualmente de el o de ella. Mediante la manipulación o el engaño, y ocultando su condición de adulto, este logra que el niño, niña o adolescente intercambie imágenes o contenidos de connotación sexual. El fin último del groomer es el de cometer algún tipo de abuso sexual de carácter personal que lesione la integridad sexual de el o la menor, independientemente de la forma que asuma la agresión.

El abuso puede concretarse virtualmente o en la vida real acordando un encuentro personal con el o la menor.

Cuando se limita al entorno digital, a través del envío de fotos íntimas o grabación de contenidos de la cámara web, el o la menor puede sufrir traumas psicológicos como víctima de la manipulación y el temor a que dichos contenidos sean difundidos. En caso de concretarse un encuentro cara a cara, las consecuencias podrían ser de carácter físico, pudiendo llegar incluso al abuso sexual. En algunos casos, el pederasta podría tener la intención de insertar al menor en el mundo de la prostitución infantil o la producción de material pornográfico.

Desprovistos de sistemas de protección eficaces, los niños, niñas y adolescentes están constantemente expuestos a contenido inapropiado o no deseado en formato de imágenes y videos pornográficos o que incitan a la violencia, el racismo, el odio y la discriminación, o a las autolesiones, el suicidio y trastornos de la conducta alimentaria, entre otras acciones que atentan contra la integridad física y mental del menor.

En inglés, para diferenciarlo del significado original relativo al acicalado de animales se suelen utilizar los términos child grooming o internet grooming.