miércoles, 6 de noviembre de 2019

historia del halloween

Historia del Halloween

Resultado de imagen para historia del halloween

La palabra “Halloween” es una contracción de la expresión inglesa “All Hallow’s Eve”. Literalmente, significa “Víspera de Todos los Santos”. Aparentemente, pues, esta celebración macabra y humorística anglosajona estaría vinculada a una fiesta solemne y considerada como de estricta observancia por la Iglesia Católica: el Primero de Noviembre, festividad de Todos los Santos. Pero esto no es del todo cierto.

¿Cuáles son los orígenes de Halloween? El verdadero origen de esta fiesta anglosajona es milenario y de variada procedencia. Halloween tiene una raiz céltica y otra romana. Los romanos dedicaban la fiesta denominada Feralia al descanso y la paz de los muertos, haciendo sacrificios y elevando diversas plegarias a sus dioses paganos. También los romanos dedicaban una festividad a Pomona, la diosa de las cosechas y los frutos, cuyo símbolo es una manzana -obsérvese que uno de los juegos tradicionales del Halloween es el juego de morder la manzana (bobbing for apples)-. Pero con anterioridad, ya los pueblos celtas de Irlanda, Gales, Escocia y norte de Francia, celebraban la festividad llamada Samhain. Samhain o La Samon era un festival que ocurría entre finales de octubre y principios de noviembre, un rito en que se celebraba el final de la temporada de las cosechas y el comienzo del invierno. Los druidas, auténticos sacerdotes o chamanes célticos, creían que en una determinada noche, la del 31 de octubre, las brujas gozaban de mayor vitalidad, a los propios druidas se les concedía el don de adivinar el futuro, los límites entre el mundo de los vivos y el mundo de los muertos desaparecían completamente, e incluso, que los fantasmas de los muertos venían del otro mundo a llevarse consigo a los vivos. Por eso, en la noche de Samhain los druidas preparaban enormes fogatas y hacían conjuros, intentando ahuyentar a los malos espíritus, y la gente dejaba dulces o comida a la puerta de sus casas, en la superstición de que los difuntos, a quienes las leyendas les atribuían la autoría de las más crueles atrocidades, se irían contentos y les dejarían en paz. En aquellas gentes, para las que cualquier hecho de la naturaleza era poco menos que profético, la noche de Samhainabría el largo y crudo invierno por el que vagaban perdidos los fantasmas de los muertos del último año en busca de cuerpos que poseer para transitar al otro mundo, hasta la llegada de la primavera cuando los días son más largos y las tinieblas menguan.

Cuando el Cristianismo llega a los pueblos célticos, la tradición del Samhain no desaparece, pese a los esfuerzos realizados por la Iglesia Católica para eliminar supersticiones paganas que pudieran entroncar con el satanismo o culto al diablo. Sin embargo la fiesta del Samhain sufre alguna transformación. En el calendario gregoriano, el 1 de noviembre pasó a ser el día de Todos los Santos; el Samhain, la víspera de Todos los Santos, pasó a denominarse All-hallows Eve y, actualmente, por contracción de la expresión, Halloween; y por su parte, el Día de los Todos los Difuntos o Día de Todas las Almas pasó a ser el 2 de noviembre. Las tres celebraciones juntas, “Eve of All Saints”, “Day of All Saints”, and “Day of All Souls”, se denominan en la tradición irlandesa Hallowmas.

A mediados del siglo XVIII, los emigrantes irlandeses empiezan a llegar a América. Con ellos llegan su cultura, su folclore, sus tradiciones, su Halloween... En un primer momento Halloween sufre una fuerte represión por parte de las autoridades de Nueva Inglaterra, de arraigada tradición luterana. Pero a finales del siglo XIX, los Estados Unidos reciben una nueva oleada de inmigrantes de origen céltico. La fiesta de Halloween, en América, se mezcla con otras creencias indias y en la secuela colonial, el Halloween incluye entre sus tradiciones el contar historias de fantasmas (telling of ghost stories) y la realización de travesuras (mischief-making), bromas (fortunes) o los bailes tradicionales. La gente comienza a confeccionar disfraces (disguises) o trajes para Halloween (Halloween costumes).

Así, en Estados Unidos, Halloween, evoluciona y se desentiende de la tradición cristiana. Halloween se convierte en una noche con aura de débil misterio, brujas, fantasmas, duendes, espíritus, pero sin que se pierda el ánimo festivo y el buen humor. Una noche de dulces, bromas, disfraces y películas de terror, perdidos ya los miedos atávicos de los viejos ancestros irlandeses.

Historia de la natividad


Historia de la natividad

Natividad, acortación de Natividad de Nuestro Señor Jesucristo, se refiere a la natividad de Jesús de Nazaret, la conmemoración de su nacimiento. Es celebrada en la noche del 24 al 25 de diciembre. En la liturgia, la celebración de la Natividad inaugura el llamado tiempo de Navidad. En Occidente empezó a conmemorarse a mediados del siglo IV y se celebró por primera vez en Constantinopla en el año 379.

Por extensión, se denomina Natividad a un tema tratado abundantemente en las artes pictóricas, a partir del arte paleocristiano y bizantino de los siglos V y VI, tema que adquiere su máximo desarrollo en el arte medieval, como parte del ciclo referido a la vida de Jesús.

Cuando se hubieron cumplido los acontecimientos que debían preceder al advenimiento del Mesías, de acuerdo con los vaticinios de los antiguos profetas, Jesús llamado el Cristo, Hijo de Dios eterno, se encarnó en el seno de la Virgen María y, hecho hombre, nació de ella para la redención de la humanidad. Desde la caída de nuestros primeros padres, la sabia y misericordiosa providencia de Dios había dispuesto gradulamente todas las cosas para la realización de sus promesas y el cumplimiento del más grande de sus misterios: la encarnación de su divino Hijo.

Por aquel entonces, el Emperador Augusto emitió un decreto para llevar a cabo un censo en el cual todas las personas debían registrarse en un lugar determinado según sus respectivas provincias, ciudades y familias. Hasta Belén, cerca de la ciudad de Jerusalén, llegaron San José y la Virgen María procedentes de Nazaret, y estando allí, le llegó la hora de dar a luz de la Virgen, trayendo al mundo a su divino Hijo a quien envolvió en lienzos y lo recostó en la paja del pesebre.

La Natividad se refiere a la Natividad de Nuestro Señor Jesucristo, la conmemoración del nacimiento de Jesús. Es celebrada en la noche del 24 al 25 dediciembre. Muchas de las imágenes de la Natividad incluyen a los ángeles como testigos del nacimiento de Jesús. ... Natividad significa "el acto de nacer"

Resultado de imagen para historia de la natividad

viernes, 18 de octubre de 2019

la tecnologia en el hogar

La tecnologia en el hogar



Uso de la Tecnología en el Hogar


Con el gran paso de los años y el avance de la ciencia, también se ayudó a la evolución de construir máquinas que no sólo ayudan a que las cosas del ser humano sean más fáciles cubriendo nuestras      necesidades. Sino también a desarrollar la investigación por lo nuevo.

Siempre es interesante observar cómo, a lo largo de los últimos años, el concepto de tecnología ha ido extendiéndose en ámbitos donde antes era poco frecuente. Uno de ellos es el doméstico. Seguramente para muchos de nuestros padres, el único aparato utilizado al interior de sus casas fue la radio y tal vez la plancha eléctrica; eso valió para una gran cantidad de años.

Cuando hablamos aquí de tecnología nos referimos a los diversos equipos y aparatos eléctricos o electrónicos de uso doméstico, para diferenciarlos del uso de herramientas varias (que estrictamente también podrían considerarse tecnología), que desde tiempos remotos se han usado para resolver las necesidades diarias de cualquier casa.

Si el Hogar es concebido como la más importante Empresa, debe tener al frente a un buen líder o Gerente responsable que coordine y haga posible el objetivo principal que es obtener éxito familiar y el tan anhelado bienestar.

Si en toda organización empresarial es válida y pertinente su aplicación, ¿por qué lo vamos a desestimar en nuestro Hogar?


Busca el equilibrio ideal entre tu Familia y la Tecnología. Úsala con conciencia y discreción. Las nuevas generaciones se aburren sin un celular con juegos en su mano o sin un cyber café cerca de casa. Fomenten como Gerentes de su Hogar el contacto, ese sabroso momento de la “sobre mesa”, del escucharse unos a otros para saber cómo piensan, qué sienten, que desean, con qué sueñan y que se proponen emprender en la vida.



No podemos negar que la tecnología en el hogar y en todos los ámbitos que se puedan imaginar, ha tenido alcances inimaginables, lo que ha facilitado en gran medida las actividades cotidianas. Estos avances los podemos notablemente y día a día dentro de nuestra casa, gracias al desarrollo de aplicaciones que nos permiten controlar diversas funciones a través de un dispositivo, lo que convierte a nuestro hogar en una vivienda inteligente.

En este artículo de homify, te invitamos a conocer más a detalle acerca de las características de una casa que aplica la tecnología en su beneficio, estética y funcionalidad; de igual manera de cómo influye la tecnología en el hogar y el impacto de la ciencia y tecnología en las viviendas modernas.


https://youtu.be/6XfQNYXmidA

Inteligencia Artifical

La Inteligencia Artificial 


¿Qué es la Inteligencia Artificial?

La Inteligencia Artificial (IA) es la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano. Una tecnología que todavía nos resulta lejana y misteriosa, pero que desde hace unos años está presente en nuestro día a día a todas horas.

TIPOS DE INTELIGENCIA ARTIFICIAL

Los expertos en ciencias de la computación Stuart Russell y Peter Norvig diferencian varios tipos de inteligencia artificial:
Sistemas que piensan como humanos: automatizan actividades como la toma de decisiones, la resolución de problemas y el aprendizaje. Un ejemplo son las redes neuronales artificiales.
Sistemas que actúan como humanos: se trata de computadoras que realizan tareas de forma similar a como lo hacen las personas. Es el caso de los robots.
Sistemas que piensan racionalmente: intentan emular el pensamiento lógico racional de los humanos, es decir, se investiga cómo lograr que las máquinas puedan percibir, razonar y actuar en consecuencia. Los sistemas expertos se engloban en este grupo.
Sistemas que actúan racionalmente: idealmente, son aquellos que tratan de imitar de manera racional el comportamiento humano, como los agentes inteligentes.

APLICACIONES PRÁCTICAS DE LA INTELIGENCIA ARTIFICIAL

La IA está presente en la detección facial de los móviles, en los asistentes virtuales de voz como Siri de Apple, Alexa de Amazon o Cortana de Microsoft y está integrada en nuestros dispositivos cotidianos a través de bots (abreviatura de robots) o aplicaciones para móvil, tales como:   Enlace externo, se abre en ventana nueva., un personal shopper en versión digital;  externo, se abre en ventana nueva., concebida para ayudarnos con el aprendizaje de idiomas; Enlace externo, se abre en ventana nueva., diseñada para hacernos un poco más llevadera la ardua tarea de encontrar nuevo piso; o Gyan Enlace externo, se abre en ventana nueva., un asistente virtual de Facebook que emite 'diagnósticos' médicos. El objetivo de todas ellas: hacer más fácil la vida de las personas.

Los avances en IA ya están impulsando el uso del big data debido a su habilidad para procesar ingentes cantidades de datos y proporcionar ventajas comunicacionales, comerciales y empresariales que la han llevado a posicionarse como la tecnología esencial de las próximas décadas. Transporte, educación, sanidad, cultura... ningún sector se resistirá a sus encantos.

Las máquinas inteligentes imitan las funciones cognitivas de los humanos.

domingo, 29 de septiembre de 2019

La tecnologia en la historia

Historia de la tecnologia


La tecnología nace de necesidades, responde a demandas e implica el planteo y la solución de problemas prácticos o concretos dando como resultado la satisfacción de necesidades o la resolución de problemas.
Desde el inicio de los tiempos, el ser humano ha tenido la necesidad de construir y desarrollar nuevos objetos que le faciliten su trabajo y mejoren su calidad de vida. Para ello ha contado con los conocimientos propios de su época y con los materiales que le rodeaban para construir herramientas y máquinas que le ayuden a mejorar.
El comienzo de la tecnología con el descubrimiento del filo de una piedra para cortar.
La tecnología se ha ido desarrollando en función de la época y del contexto histórico, influyendo, en muchas ocasiones, en los grandes acontecimientos de la historia.
Vamos hacer un análisis de la historia de la tecnología. Para ello, primero veremos un resumen rápido de la evolución, después uno más amplio en forma de línea de tiempo y acabaremos con un video muy bueno que nos habla de la historia y la evolución de la tecnología.
La historia de la tecnología es la historia de la invención de herramientas y técnicas con un propósito práctico. La historia moderna está relacionada íntimamente con la historia de la ciencia, pues el número del descubrimiento de nuevos conocimientos ha permitido crear nuevas cosas y, recíprocamente, se han podido realizar nuevos descubrimientos científicos gracias al desarrollo de nuevas tecnologías, que han extendido las posibilidades de experimentación y adquisición del conocimiento tecnológico y científico
Los artefactos tecnológicos son productos de una economía, una fuerza del crecimiento económico y una buena parte de la vida. Las innovaciones tecnológicas afectan y están afectadas por las tradiciones culturales de la sociedad. También son un medio de obtener poder militar.

Resultado de imagen para la tecnologia en la historia

la historia del computador

La Historia Del Computador

La historia del computador inicia con la creación de las primeras herramientas para calcular y procesar datos, tales como, el ábaco, la Pascalina, la maquina diferencial y los programas de tarjetas perforadas. Esta evolución del procesamiento de datos llevo a la creación de las primeras computadoras como el Colossus de Tommy Flowers y la ENIAC de la Universidad de Pensilvania. Con el paso del tiempo la computadora a travesó varias modificaciones que la hicieron más pequeña, veloz, practica y económica. Esto llevo al surgimiento de los computadores de segunda generación o computadoras personales, las cuales fueron gestionas y perfeccionadas por compañías como Microsoft y Apple, entre otras. En el trascurso de los últimos años la computadora se ha convertido en una las herramientas más usadas por el hombre, por lo que actualmente existen diversos tipos ordenadores adaptados a las necesidades del humano.

INICIOS
Después de que fueran creadas las primeras herramientas para el cálculo y el procesamiento de datos en las civilizaciones antiguas (Egipto, China, Grecia, etc.), el hombre continuó gestando nuevas herramientas que le permitieran calcular y recolectar datos de manera práctica y sencilla, pero ante todo funcional. Uno de los primeros avances desde la creación del ábaco, fue la Pascalina, máquina que fue creada por Blaise Pascal en 1642. Esta constaba de una serie de engranajes, los cuales al girar ejecutaban operaciones aritméticas. Esta máquina es considerada la precursora de las calculadoras mecánicas. Años más tarde este invento fue perfeccionado por Gottfried Wilhelm Leibniz, quien además inventaría una máquina para multiplicar.

En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó la máquina de calcular de Pascal e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.

Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.

Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1946. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.

A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.

Resultado de imagen para historia del computador

hardware

Hardware

¿Que es hardware?

Conjunto de elementos físicos o materiales que constituyen una computadora o un sistema informático.

Hardware es la parte física de un ordenador o sistema informático. Está formado por los componentes eléctricos, electrónicos, electromecánicos y mecánicos, tales como circuitos de cables y luz, placas, memorias, discos duros, dispositivos periféricos y cualquier otro material en estado físico que sea necesario para hacer que el equipo funcione.

El término hardware viene del inglés, significa partes duras y su uso se ha adoptado en el idioma español sin traducción, siendo utilizado para para aludir a los componentes de carácter material que conforman un equipo de computación.

En la actualidad, hardware también hace referencia a la parte física de equipos de diversa naturaleza, como electrodomésticos, automóviles, teléfonos inteligentes, tablets, cámaras fotográficas, equipos electrónicos o piezas mecánicas.

Evolución del hardware
Desde la aparición de las primeras máquinas computacionales en la década de los 40 hasta la actualidad, la creación de hardware ha evolucionado para adaptarse a las nuevas tecnologías y usuarios. De esta serie de cambios, se distinguen 4 generaciones de hardware:
  • Primera generación de hardware (1945-1956): uso de tubos de vacío en máquinas de cálculo.
  • Segunda generación de hardware (1957-1963): los tubos al vació fueron sustituidos por transistores.
  • Tercera generación de hardware (1964- actualidad): creación de componentes basados en circuitos integrados impresos en una pastilla de silicio.
  • Cuarta generación de hardware (futuro): todo hardware elaborado con nuevos materiales y formatos distintos al silicio, y que aún están en fase de investigación, diseño, desarrollo o implementación.

Clasificación del hardware
El hardware se clasifica en 5 categorías, según el desempeño de sus componentes.

Hardware de procesamiento
Corresponde a la Unidad Central de Procesamiento o CPU, el centro de operaciones lógicas de la computadora, en donde se interpretan y ejecutan las tareas necesarias para el funcionamiento del resto de los componentes.

Hardware de almacenamiento
Como indica su nombre, hace referencia a todos los componentes cuya función es resguardar la información para que el usuario pueda acceder a ella en cualquier momento. El dispositivo principal en este caso es la memoria RAM (Random Access Memory), pero también está conformada por memorias secundarias, como los discos duros o las memorias SSD o USB.

Hardware gráfico

Está compuesto principalmente por las tarjetas gráficas que poseen memoria y CPU propios, y son las encargadas de interpretar y ejecutar las señales dedicadas a la construcción de imágenes. El hecho de que esta función no recaiga en el CPU tiene que ver con la eficiencia, ya que al liberar de esas funciones a la memoria principal, el sistema funciona de manera óptima.

Dispositivos periféricos
Es todo el hardware que permite que la información pueda ingresar a la computadora, o salir al exterior. Se subdividen en tres categorías.
  • Periféricos de entrada: son los que permiten el acceso de datos a la computadora. Por ejemplo, el teclado, el micrófono, la cámara web, etc.
  • Periféricos de salida: a través de ellos, el usuario puede extraer la información, como los escáneres, las impresoras, las consolas y los parlantes o altavoces.
  • Periféricos de entrada y salida o mixtos: son capaces de introducir o extraer la información. Las pantallas táctiles entran en esta categoría, al igual que los lectores de DVD o BlueRay y las memorias flash. Estas últimas, son esencialmente memorias secundarias, pero se usan como periféricos mixtos.

Hardware y software
Para un correcto funcionamiento del hardware, también se necesita del software, que es la parte lógica de la informática y no es tangible. Es allí donde están codificadas todas las instrucciones o tareas que realiza un sistema electrónico. El software incluye desde el sistema operativo hasta las aplicaciones de escritorio que permiten ejecutar tareas específicas, como el editor de textos o imágenes.

La combinación de software y hardware es la que permite que el ordenador puede trabajar de manera más precisa y eficaz.
Resultado de imagen para que es hardware