sábado, 31 de agosto de 2019

Modelos de e-commerce

  • B2B (Business-to-Business): Empresas que hacen negocios entre ellas. El business-to-business aplica a la relación entre un fabricante y el distribuidor de un producto y también a la relación entre el distribuidor y el comercio minorista, pero NO a la relación entre el comerciante y su cliente final (consumidor), relación esta última que quedaría ajustada entonces al entorno del B2C (business-to-consumer).
  • B2C (Business-to-Consumer): Empresas que venden al público en general, a los consumidores como personas naturales.
  • C2C (Consumer-to-Consumer): Plataforma a partir de la cual los consumidores compran y venden entre ellos. Es la forma más antigua de comercio electrónico que conocemos. Estas plataformas surgen como una manera de ayudar a la gente a negociar directamente con otras personas o poder comprarle a las empresas de manera más beneficiosa para ellos. Un ejemplo es E bay.
  • B2G (Business-to-Government): Empresas que venden u ofrecen sus servicios a las instituciones del gobierno. Los ayuntamientos, diputaciones y otras instituciones oficiales, pueden contactar con sus proveedores, comparando productos y realizando pedidos por medio de un proceso simple y estandarizado.
  • C2B (Consumer-to-Business):  Es el modelo de negocio de comercio electrónico en el que los consumidores pueden ofrecer productos y servicios a las empresas, y las empresas pagan a los consumidores. Este modelo de negocio es una inversión completa del modelo de negocio tradicional (de empresa a consumidor = B2C).

¿Que es navegador y buscador?

Un navegador es un programa de software instalado en un ordenador, teléfono móvil o cualquier otro dispositivo electrónico que puede acceder fácilmente a Internet
Un buscador o motor de búsqueda también es un programa pero puede buscar la palabra clave introducida y obtener las coincidencias.
Google Chrome, Mozilla Firefox, Edge, Internet Explorer, Opera, Safari, etc. son los nombres de los navegadores web más populares, mientras que Google, Yahoo, Bing, NATE, DuckDuckGo, etc. son los motores de búsqueda más populares.
Normalmente, los navegadores se utilizan para acceder a varios sitios web y páginas web, mientras que los motores de búsqueda se utilizan con fines de búsqueda en Internet.
Hay otra diferencia basada en la dependencia. Una persona necesita un navegador para abrir un motor de búsqueda, pero para abrir un navegador, no se requiere un motor de búsqueda.

HTML

HTML, siglas en inglés de HyperText Markup Language (lenguaje de marcas de hipertexto), hace referencia al lenguaje de marcado para la elaboración de páginas web. Es un estándar que sirve de referencia del software que conecta con la elaboración de páginas web en sus diferentes versiones, define una estructura básica y un código (denominado código HTML) para la definición de contenido de una página web, como texto, imágenes, videos, juegos, entre otros. Es un estándar a cargo del World Wide Web Consortium (W3C) o Consorcio WWW, organización dedicada a la estandarización de casi todas las tecnologías ligadas a la web, sobre todo en lo referente a su escritura e interpretación. Se considera el lenguaje web más importante siendo su invención crucial en la aparición, desarrollo y expansión de la World Wide Web (WWW). Es el estándar que se ha impuesto en la visualización de páginas web y es el que todos los navegadores actuales han adoptado.
El lenguaje HTML basa su filosofía de desarrollo en la diferenciación. Para añadir un elemento externo a la página (imagen, vídeo, script, entre otros.), este no se incrusta directamente en el código de la página, sino que se hace una referencia a la ubicación de dicho elemento mediante texto. De este modo, la página web contiene solamente texto mientras que recae en el navegador web (interpretador del código) la tarea de unir todos los elementos y visualizar la página final. Al ser un estándar, HTML busca ser un lenguaje que permita que cualquier página web escrita en una determinada versión, pueda ser interpretada de la misma forma (estándar) por cualquier navegador web actualizado.

HTTP

El Protocolo de transferencia de hipertexto (en inglés: Hypertext Transfer Protocol o HTTP) es el protocolo de comunicación que permite las transferencias de información en la World Wide Web. HTTP fue desarrollado por el World Wide Web Consortium y la Internet Engineering Task Force, colaboración que culminó en 1999 con la publicación de una serie de RFC, el más importante de ellos es el RFC 2616 que especifica la versión 1.1. HTTP define la sintaxis y la semántica que utilizan los elementos de software de la arquitectura web (clientes, servidores, proxies) para comunicarse. HTTP es un protocolo sin estado, es decir, no guarda ninguna información sobre conexiones anteriores. El desarrollo de aplicaciones web necesita frecuentemente mantener estado. Para esto se usan las cookies, que es información que un servidor puede almacenar en el sistema cliente. Esto le permite a las aplicaciones web instituir la noción de sesión, y también permite rastrear usuarios ya que las cookies pueden guardarse en el cliente por tiempo indeterminado.

WWW

La World Wide Web (WWW) o red informática mundial​ es un sistema de distribución de documentos de hipertexto o hipermedia interconectados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener textos, imágenes, vídeos u otros contenidos multimedia, y navega a través de esas páginas usando hiperenlaces.
La Web se desarrolló entre marzo de 1989 y diciembre de 1990 por el inglés Tim Berners-Lee con la ayuda del belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas web), y en los últimos años ha abogado por su visión de una Web semántica.
Utilizando los conceptos de sus anteriores sistemas de hipertexto como ENQUIRE, el físico británico Tim Berners-Lee, un científico de la computación y en ese tiempo de los empleados del CERN, ahora director del World Wide Web Consortium (W3C), escribió una propuesta en marzo de 1989 con lo que se convertiría en la World Wide Web. ​ La propuesta de 1989 fue destinada a un sistema de comunicación CERN pero Berners-Lee finalmente se dio cuenta que el concepto podría aplicarse en todo el mundo.​ En la CERN, la organización europea de investigación cerca de Ginebra, en la frontera entre Francia y Suiza, ​ Berners-Lee y el científico de la computación belga Robert Cailliau propusieron en 1990 utilizar el hipertexto "para vincular y acceder a información de diversos tipos como una red de nodos en los que el usuario puede navegar a voluntad", y Berners-Lee terminó el primer sitio web en diciembre de ese año. Berners-Lee publicó el proyecto en el grupo de noticias alt.hypertext el 7 de agosto de 1991.

Web 3.0

Un nuevo término, Web 3.0, surgió para relacionar las Webs semánticas.
Se trata de una extensión de World Wide Web, por la que se pueden encontrar datos en cualquier lengua y en formatos aptos para todo tipo de software. 
Un nuevo término, Web 3.0, surgió para relacionar las Webs semánticas.
Se trata de una extensión de World Wide Web, por la que se pueden encontrar datos en cualquier lengua y en formatos aptos para todo tipo de software.
Se basa fundamentalmente en la información y su estructuración, que le permite al usuario encontrarla de manera más rápida y eficaz.
Web 3.0 es un neologismo que se utiliza para describir la evolución del uso y la interacción en la red a través de diferentes caminos.
Ello incluye, la transformación de la red en una base de datos, un movimiento dirigido a hacer los contenidos accesibles por múltiples aplicaciones que no son solamente el navegador, el empuje de las tecnologías de inteligencias artificial, la web Geoespacial, la Web 3D.
Frecuentemente es utilizado por el mercado para promocionar las mejoras respecto a la Web 2.0.
Otro posible camino para la Web 3.0 es la dirección hacia la visión 3D, liderada por el Web 3D Consortium.
Esto implicaría la transformación de la Web en una serie de espacios 3D, llevando más lejos el concepto propuesto por Second Life. Esto podría abrir nuevas formas de conectar y colaborar, utilizando espacios tridimensionales.
El término Web 3.0 apareció por primera vez en 2006 en un artículo de Jeffrey Zeldman crítico de la Web 2.0 y asociado a tecnologías como AJAX.
Actualmente existe un debate considerable en torno a lo que significa Web 3.0, y cuál es la definición acertada.

Web 2.0

El término Web 2.0, acuñado por Tom O' Reilly en el año 2004 hace referencia a una segunda generación de modelos de páginas Web.
Se entiende como una nueva filosofía de navegar, una nueva forma de participar en la red.
Su antecesor, la Web 1.0, presenta un modelo de navegación más estático, este nuevo formato fomenta la participación activa.
El usuario ya no se limita a acceder a la información, sino que la crea.
Se entiende por Web 2.0 todos aquellos servicios de Internet cuya base de datos puede ser modificada en contenido, formato o ambos.
Los usuarios tienen un control total de su información.
Se produce una descentralización de Internet por la que el cliente es, a su vez, servidor.
Este formato facilita la interactividad entre usuarios, que se refleja sobre todo en el uso de redes sociales, engrandeciendo así la inteligencia colectiva.
El modelo 2.0 ha provocado un fuerte impacto social. El usuario tiene más poder en la red que nunca, ya que ahora tiene la capacidad de expresarse libremente y de ser escuchado: tiene voz y voto en Internet.
Simplifica la usabilidad del sitio Web y ahorra tiempo al usuario.
Estandariza los lenguajes para un mejor uso de la re-utilización del código, permite una mejor interoperabilidad entre las aplicaciones y las máquinas (software-hardware).
Facilita además el reconocimiento o detección de carencias o nuevas formas de utilización de aplicaciones y la convergencia entre los medios de comunicación y los contenidos.
Los principios del modelo 2.0 son los siguientes:
  • La Web es una plataforma
  • La información es lo que mueve Internet
  • Los efectos de Internet son a su vez movidos por la participación
  • Las distintas características de la red pueden desarrollarse de manera independiente

Web 1.0

La Web 1.0 empezó en los años 60, de la forma más básica que existe, con navegadores de sólo texto, como ELISA, después surgió el HTML que hizo las páginas más agradables a la vista y a los primeros navegadores visuales como Netscape e Internet Explorer.
Esta Web es de sólo lectura, el usuario no puede interactuar con el contenido de la página, se encuentra limitada a lo que el Webmaster sube al sitio Web.
Algunos elementos de diseño típicos de un sitio Web 1.0 incluyen:
  • Páginas estáticas para el usuario que la visita
  • El uso de framesets o marcos
  • Extensiones propias del HTML como el parpadeo y las marquesinas, etiquetas introducidas durante la guerra de los navegadores.
  • Libros de visitas en línea o guestbook
  • Botones gif.
  • Formularios HTML enviados vía email.

Topologia de malla

La topología de red malla es una topología de red en la que cada nodo está conectado a todos los nodos. De esta manera es posible llevar los mensajes de un nodo a otro por distintos caminos. Si la red de malla está completamente conectada, no puede existir absolutamente ninguna interrupción en las comunicaciones. Cada servidor tiene sus propias conexiones con todos los demás servidores.

Topologia de estrella

Una red en estrella es una red de computadoras donde las estaciones están conectadas directamente a un punto central y todas las comunicaciones se hacen necesariamente a través de ese punto (conmutador, repetidor o concentrador). Los dispositivos no están directamente conectados entre sí, además de que no se permite tanto tráfico de información. Dada su transmisión, una red en estrella activa tiene un nodo central “activo” que normalmente tiene los medios para prevenir problemas relacionados con el eco.
Se utiliza sobre todo para redes locales (LAN). La mayoría de las redes de área local que tienen un conmutador (switch) o un concentrador (hub) siguen esta topología. El punto o nodo central en estas sería el switch o el hub, por el que pasan todos los paquetes de usuarios.

Topologia de bus

Una red en bus es aquella topologia que se caracteriza por tener un único canal de comunicaciones (denominado bus o troncal) al cual se conectan los diferentes dispositivos.
De esta forma todos los dispositivos comparten el mismo canal para comunicarse entre si.

Topologia de anillo

Una red en anillo es una topología de red en la que cada estación tiene una única conexión de entrada y otra de salida. Cada estación tiene un receptor y un transmisor que hace la función de traductor, pasando la señal a la siguiente estación.
En este tipo de red la comunicación se da por el paso de un token o testigo, que se puede conceptualizar como un cartero que pasa recogiendo y entregando paquetes de información, de esta manera se evitan eventuales pérdidas de información debidas a colisiones.
En un anillo doble (Token Ring), dos anillos permiten que los datos se envíen en ambas direcciones (Token passing). Esta configuración crea redundancia (tolerancia a fallos). Evita las colisiones.

Wan

WAN es la sigla de Wide Area Network, una expresión en lengua inglesa que puede traducirse como Red de Área Amplia. Esto quiere decir que la red WAN es un tipo de red que cubre distancias de entre unos 100 y unos 1.000 kilómetros, lo que le permite brindar conectividad a varias ciudades o incluso a un país entero.
Las redes WAN pueden ser desarrolladas por una empresa o una organización para un uso privado, o incluso por un proveedor de Internet (ISP, Internet Service Provider) para brindar conectividad a todos sus clientes.
Por lo general, la red WAN funciona punto a punto, por lo que puede definirse como una red de paquete conmutado. Estas redes, por otra parte, pueden utilizar sistemas de comunicación de radio o satelitales.
Entre los componentes de la red WAN aparecen los equipos que se dedican a ejecutar los programas de usuario y que reciben el nombre de hosts; los enrutadores que concretan la división entre las líneas de transmisión y los elementos de conmutación; y las subredes formadas a partir de la interconexión de varios hosts.
Su velocidad de transmisión se encuentra entre 1 Mbps y 1 Gbps, aunque este último límite puede cambiar drásticamente con los avances tecnológicos. La red WAN se utiliza para establecer comunicaciones privadas y los principales medios de transmisión en los que se basa son la fibra óptica y el cable de teléfono. Ofrece una gran versatilidad para hacer modificaciones en el software y en el hardware de los equipos que vincula y además permite establecer conexiones con otras redes.
Ventajas de la red WAN
* permite usar un software especial para que entre sus elementos de red coexistan mini y macrocomputadoras; * no se limita a espacios geográficos determinados; * ofrece una amplia gama de medios de transmisión, como ser enlaces satelitales.

Man

MAN es la sigla de Metropolitan Area Network, que puede traducirse como Red de Área Metropolitana. Una red MAN es aquella que, a través de una conexión de alta velocidad, ofrece cobertura en una zona geográfica extensa (como una ciudad o un municipio).
Con una red MAN es posible compartir e intercambiar todo tipo de datos (texto, vídeos, audio, etc.) mediante fibra óptica o cable de par trenzado. Este tipo de red supone una evolución de las redes LAN (Local Area Network o Red de Área Local), ya que favorece la interconexión en una región más amplia, cubriendo una mayor superficie. Por otro lado se encuentra la red WAN (Wide Area Network o Red de Área Amplia), que permite la interconexión de países y continentes.
Las redes MAN pueden ser públicas o privadas. Estas redes se desarrollan con dos buses unidireccionales, lo que quiere decir que cada uno actúa independientemente del otro respecto a la transferencia de datos. Cuando se utiliza fibra óptica, la tasa de error es menor que si se usa cable de cobre, siempre que se comparen dos redes de iguales dimensiones. Cabe mencionar que ambas opciones son seguras dado que no permiten la lectura o la alteración de su señal sin que se interrumpa el enlace físicamente.
Entre los usos de las redes MAN, puede mencionarse la interconexión de oficinas dispersas en una ciudad pero pertenecientes a una misma corporación, el desarrollo de un sistema de videovigilancia municipal y el despliegue de servicios de VoIP.


Lan

Una red de área local, red local o LAN (del inglés Local Area Network) es la interconexión de varias computadoras y dispositivos periféricos. Su extensión está limitada físicamente a un edificio o a un entorno de 200 metros, y con repetidores podría llegar hasta un área de 1 kilómetro.
Su aplicación más extendida es la interconexión de computadoras personales y estaciones de trabajo en oficinas, fábricas, etc., para compartir recursos e intercambiar datos y aplicaciones. En definitiva, permite una conexión entre dos o más equipos, lo que la perfila como una herramienta tecnológica que garantiza la conectividad.

Características de la red LAN

  • Opera dentro de un área geográfica limitada.
  • Permite el multiacceso a medios con alto ancho de banda.
  • Controla la red de forma privada con administración local.
  • Proporciona conectividad continua a los servicios locales.
  • Conecta dispositivos físicamente adyacentes.

Quinta generacion de computadoras

Considerando los avances tecnológicos en el área de la informática y de la computación, se podrían precisar algunas fechas y características propias de lo que se denomina la quinta generación de computadoras, la cual se extendió desde del año 1982 hasta el año 1989.
Durante el siglo XX los avances tecnológicos abarcaron cambios significativos para la siguiente generación de computadores hasta la actualidad, siendo el auge de los computadores con inteligencia artificial y funcionalidad dirigido a un nivel práctico donde abarca el uso cotidiano y no sólo la maquinaria industrial, como también el aprovechamiento de la nueva herramienta creada, el Internet.
 En esta generación de computadoras se vive una era en la cual la mayoría de las cosas son controladas por diferentes tipos de máquinas. Estas computadoras se basan en una inteligencia artificial muy sofisticada. Asimismo, utilizan varios CPU para tener una velocidad de manejo de la información más rápido.
  • Una mayor velocidad y mayor miniaturización de sus elementos.
  • La posibilidad de conexiones con cualquier tipo de red como con otros dispositivos, dado a que contaban con puertos de entrada, que hacían posible la salida y la entrada de información.
  • La inteligencia artificial permitió el desarrollo de un lenguaje natural, la capacidad para la traducción de diversos lenguajes de forma rápida y con gran eficiencia, así como también, el reconocimiento de palabras generado a partir de la voz. Esta inteligencia también permitió la resolución efectiva de procedimientos matemáticos.
  • El uso de dispositivos de almacenamiento para resguardar la información que empezaba a generar estos computadores, debido a esta nueva característica a la funcionalidad se empieza a pensar en la unión de varios formatos como es la imagen con el sonido, el área de multimedia se comienza a expandir al igualmente que los dispositivos que lo respaldan.
  • La utilización de microprocesadores a partir del requerimiento de reducción al tamaño de los componentes como la unión de varios de éstos, que se interconectaban creando los multiprocesadores. Se concibieron los computadores portátiles o PC, siento estos una miniaturización o simplificación de los computadores industriales.
  • El desarrollo de la lectura por voz, característica que permite que el computador se active a través de palabras o frases simples para responder a una actividad o búsqueda.
  • Integración de circuitos de entrada y de salida, como por ejemplo, los disquetes o discos flexibles que permitían el almacenamiento efectivo de información.

Cuarta generacion de computadoras

En la cuarta generación de computadoras hubo un cambio radical que marcó un antes y un después en la revolución tecnológica, todo esto debido a la aparición de los microprocesadores que significaron un gran avance de la microelectrónica. Se trata de circuitos integrados rápidos y de alta densidad. Económicas y reducidas en tamaño, las microcomputadoras se extienden al mercado industrial. Con esto aparecen las computadoras personales, volviéndose imprescindibles en nuestra sociedad, dándole la bienvenida a la "revolución informática".
 La cuarta generación de computadoras (1971 a 1981) se produjo con el microprocesador de los circuitos electrónicos. La pequeña dimensión del microprocesador de chips fue fundamental para la creación de las computadoras personales (PC). En la actualidad las tecnologías LSI (Integración a gran escala) y VLSI (Integración a muy gran escala) permiten que miles de componentes electrónicos se almacenen en un chip. Usando la tecnología VLSI, una computadora pequeña no tiene nada que envidiarle a una computadora de la primera generación que ocupaba un cuarto completo. Definitivamente las microcomputadoras llegaron para quedarse.
La característica más importante de las computadoras de la cuarta generación, es sin duda alguna su tamaño, que se debía al uso de la tecnología de microprocesador / VLSI. Gracias a ello, las mismas contaban con otras ventajosas características:
  • Mucho menos costosas
  • Más portátiles
  • Tamaño mucho más pequeño
  • Disponibles para cualquier tipo de personas.
  • Lenguaje Básico de Computación
  • Computer Mouse y GUI hacen que las computadoras sean más agradables
  • Más poderosas y confiables que las generaciones anteriores.
  • Potencia de procesamiento rápida con menos consumo de energía
  • No se requiere aire acondicionado.
  • Producción comercial

Tercera generacion de computadoras

La tercera generación de computadoras abarcó un período entre 1964 y 1971. Marcó una nueva era que se definió por el perfeccionamiento de los C.I., es decir, los circuitos integrados creados desde 1958, que son unos chips o pastillas de silicio, que permiten la colocación de enormes cantidades de dispositivos electrónicos en un mínimo espacio, logrando disminuir nuevamente el tamaño de las computadora e incorporando la multiprogramación. Su uso revolucionó la forma de componer computadoras, vigente hasta hoy en día en la fabricación de celulares, calculadoras.
Las computadoras de la tercera generación poseían circuitos integrados, en otras palabras, circuitos obtenidos, grabando cientos y más tarde, miles de transistores microscópicos en los chips de silicio. Dichos dispositivos se conocían como semiconductores. Por otra parte, la capacidad de memoria de estas computadoras llegaba hasta 2 megabytes y la rapidez del procesamiento alcanzaba 5 millones de instrucciones por segundo. Esta generación de computadoras, permitió la introducción de programas capaces de ser manipulados por los usuarios sin formación técnica.
La incorporación de los circuitos integrados hizo posible una nueva generación de computadoras con las siguientes características:
  • Mucho más pequeñas.
  • Emanaban menor cantidad de calor por lo que se redujeron las necesidades de refrigeración.
  • Al ser más pequeñas requerían además de un reducido consumo de energía eléctrica.
  • Las interconexiones de los circuitos integrados son mucho más fiables que las conexiones soldadas generando computadoras más flexibles.
  • Minicomputadoras, más económicas y con una mayor capacidad de procesamiento
  • Teleproceso (procesamiento de datos provenientes de terminales en una unidad central)
  • Multiprogramación (técnica en la que dos o más procesos se ejecutan simultáneamente por el CPU mientras se alojan en la memoria principal).
  • Renovación de periféricos
  • El número π (Pi) se logró calcular arrojando más de quinientos mil decimales.

Segunda generacion de computadoras

La segunda generación de computadoras abarcó el período comprendido entre 1959 y 1964. Esta generación marcó una nueva era que se definió por el reemplazo de las válvulas de vacío por los transistores, lo que implicó la creación de computadoras más confiables y con menores necesidades de ventilación, haciéndolas comercialmente accesibles y poderosas. Además, el uso de lenguajes de alto nivel permitió el mejoramiento en la implementación de programas y su uso en sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y simulaciones de propósito general. Las grandes empresas comenzaron a utilizar la computadora en tareas de almacenamiento, registro, manejo de inventarios, nómina y contabilidad.
La segunda generación de computadoras marca un hito en la historia de las computadoras gracias al avance tecnológico que significó la creación de los transistores para procesar información en reemplazo de los tubos al vacío. 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío, característica que los hacía más rápidos, pequeños y más confiables. Se comenzó a disminuir el tamaño de las computadoras y se utilizaban pequeños anillos magnéticos para almacenar información e instrucciones. Por otra parte, se mejoraron los programas de computadoras que fueron concebidos durante la primera generación, ya que se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN.
El invento del transistor hizo posible una nueva generación de computadoras con las siguientes características:
  • Fueron construidas con electrónica de transistores.
  • Ocupaban menos espacio y producían menos calor que las computadoras que operaban a base de tubos de vacío.
  • Más poderosas, más confiables, y menos costosas, lo que las hizo más comerciales.
  • Se programaban con lenguajes de alto nivel lo que permitía nuevas utilidades en las que podía utilizarse.
  • Utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario, que contenían pequeños anillos de material magnético vinculados entre sí, en los cuales podían almacenarse datos e instrucciones.

Primera generacion de computadoras

La primera generación de computadoras se lanzó al mercado a mediados del siglo XX, específicamente ente 1946 y 1958, época que generó grandes avances tecnológicos a partir de la búsqueda de un instrumento de ayuda en el ámbito científico y en el militar. Estas computadoras fueron muy notorias y particulares por la magnitud de su tamaño y por el poco poder para adquirir una.

Características

La primera generación de computadoras generada a mediados del siglo XX, contaba con el primer indicio o antecedente de las computadoras modernas, pero entre sus características principales estaba su gran tamaño así como su elevado costo de adquisición y el tema recurrente de fallas y errores por ser experimentales.
Contaban con el uso de tubos al vacío para procesar la información, tarjetas perforadas para la entrada y salida de los datos y programas, y usaban cilindros magnéticos para almacenar información e instrucciones internas.
Las primeras en el mercado tenían un coste aproximado de unos 10.000 dólares. Por ser de gran tamaño, su uso implicaba una gran cantidad de electricidad, generando un sobre calentamiento en el sistema, llegando a requerir sistemas auxiliares de aire acondicionado especial (con el fin de evitar este sobrecalentamiento). Como por ejemplo, el ordenador ENIAC de grandes dimensiones que llegaba a pesar 30 toneladas.
Los ordenadores de primera generación usaban tambores magnéticos como elementos de almacenamiento de datos para ser cambiados luego en la segunda generación por memorias de ferrita.

Comercio electronico

¿Que es comercio electrónico?
Es solo el proceso de compra y venta de productos por medios electrónicos, como las aplicaciones móviles e Internet. El comercio electrónico se refiere tanto al comercio minorista en línea como a las transacciones electrónicas. El comercio electrónico ha aumentado enormemente en popularidad en las últimas décadas y, en cierto modo, está reemplazando a las tiendas tradicionales de ladrillo y mortero.
El comercio electrónico le permite comprar y vender productos en un escala global, veinticuatro horas al día sin incurrir en los mismos gastos generales como lo haría con la ejecución de un tienda de ladrillo y mortero. Para obtener la mejor combinación de marketing y la mejor tasa de conversión, una empresa de comercio electrónico también debe tener una presencia física; Esto es mejor conocido como una tienda de clic y mortero.