- B2B (Business-to-Business): Empresas que hacen negocios entre ellas. El business-to-business aplica a la relación entre un fabricante y el distribuidor de un producto y también a la relación entre el distribuidor y el comercio minorista, pero NO a la relación entre el comerciante y su cliente final (consumidor), relación esta última que quedaría ajustada entonces al entorno del B2C (business-to-consumer).
- B2C (Business-to-Consumer): Empresas que venden al público en general, a los consumidores como personas naturales.
- C2C (Consumer-to-Consumer): Plataforma a partir de la cual los consumidores compran y venden entre ellos. Es la forma más antigua de comercio electrónico que conocemos. Estas plataformas surgen como una manera de ayudar a la gente a negociar directamente con otras personas o poder comprarle a las empresas de manera más beneficiosa para ellos. Un ejemplo es E bay.
- B2G (Business-to-Government): Empresas que venden u ofrecen sus servicios a las instituciones del gobierno. Los ayuntamientos, diputaciones y otras instituciones oficiales, pueden contactar con sus proveedores, comparando productos y realizando pedidos por medio de un proceso simple y estandarizado.
- C2B (Consumer-to-Business): Es el modelo de negocio de comercio electrónico en el que los consumidores pueden ofrecer productos y servicios a las empresas, y las empresas pagan a los consumidores. Este modelo de negocio es una inversión completa del modelo de negocio tradicional (de empresa a consumidor = B2C).
sábado, 31 de agosto de 2019
Modelos de e-commerce
¿Que es navegador y buscador?
Un navegador es un programa de software instalado en un
ordenador, teléfono móvil o cualquier otro dispositivo electrónico que
puede acceder fácilmente a Internet
Un buscador
o motor de búsqueda también es un programa pero puede buscar la palabra
clave introducida y obtener las coincidencias.
Google Chrome, Mozilla Firefox, Edge, Internet Explorer, Opera,
Safari, etc. son los nombres de los navegadores web más populares,
mientras que Google, Yahoo, Bing, NATE, DuckDuckGo, etc. son los motores
de búsqueda más populares.
Normalmente, los navegadores se utilizan para acceder a varios sitios web y páginas web, mientras que los motores de búsqueda se utilizan con fines de búsqueda en Internet.
Hay otra diferencia basada en la dependencia. Una persona
necesita un navegador para abrir un motor de búsqueda, pero para abrir
un navegador, no se requiere un motor de búsqueda.
HTML
HTML, siglas en inglés de HyperText Markup Language (lenguaje de marcas de hipertexto), hace referencia al lenguaje de marcado para la elaboración de páginas web.
Es un estándar que sirve de referencia del software que conecta con la
elaboración de páginas web en sus diferentes versiones, define una
estructura básica y un código (denominado código HTML) para la
definición de contenido de una página web, como texto, imágenes, videos,
juegos, entre otros. Es un estándar a cargo del World Wide Web Consortium (W3C)
o Consorcio WWW, organización dedicada a la estandarización de casi
todas las tecnologías ligadas a la web, sobre todo en lo referente a su
escritura e interpretación. Se considera el lenguaje web más importante
siendo su invención crucial en la aparición, desarrollo y expansión de
la World Wide Web
(WWW). Es el estándar que se ha impuesto en la visualización de páginas
web y es el que todos los navegadores actuales han adoptado.
El lenguaje HTML basa su filosofía de desarrollo en la
diferenciación. Para añadir un elemento externo a la página (imagen,
vídeo, script,
entre otros.), este no se incrusta directamente en el código de la
página, sino que se hace una referencia a la ubicación de dicho elemento
mediante texto. De este modo, la página web contiene solamente texto
mientras que recae en el navegador web (interpretador del código) la
tarea de unir todos los elementos y visualizar la página final. Al ser
un estándar, HTML busca ser un lenguaje que permita que cualquier página
web escrita en una determinada versión, pueda ser interpretada de la
misma forma (estándar) por cualquier navegador web actualizado.
HTTP
El Protocolo de transferencia de hipertexto (en inglés: Hypertext Transfer Protocol o HTTP) es el protocolo de comunicación que permite las transferencias de información en la World Wide Web. HTTP fue desarrollado por el World Wide Web Consortium y la Internet Engineering Task Force, colaboración que culminó en 1999 con la publicación de una serie de RFC, el más importante de ellos es el RFC 2616
que especifica la versión 1.1. HTTP define la sintaxis y la semántica
que utilizan los elementos de software de la arquitectura web (clientes,
servidores, proxies) para comunicarse.
HTTP es un protocolo sin estado,
es decir, no guarda ninguna información sobre conexiones anteriores. El
desarrollo de aplicaciones web necesita frecuentemente mantener estado.
Para esto se usan las cookies,
que es información que un servidor puede almacenar en el sistema
cliente. Esto le permite a las aplicaciones web instituir la noción de sesión, y también permite rastrear usuarios ya que las cookies pueden guardarse en el cliente por tiempo indeterminado.
WWW
La World Wide Web (WWW) o red informática mundial es un sistema de distribución de documentos de hipertexto o hipermedia interconectados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener textos, imágenes, vídeos u otros contenidos multimedia, y navega a través de esas páginas usando hiperenlaces.
La Web se desarrolló entre marzo de 1989 y diciembre de 1990 por el inglés Tim Berners-Lee con la ayuda del belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas web), y en los últimos años ha abogado por su visión de una Web semántica.
Utilizando los conceptos de sus anteriores sistemas de hipertexto
como ENQUIRE, el físico británico Tim Berners-Lee, un científico de la
computación y en ese tiempo de los empleados del CERN, ahora director
del World Wide Web Consortium (W3C), escribió una propuesta en marzo de 1989 con lo que se convertiría en la World Wide Web.
La propuesta de 1989 fue destinada a un sistema de comunicación CERN
pero Berners-Lee finalmente se dio cuenta que el concepto podría
aplicarse en todo el mundo. En la CERN, la organización europea de investigación cerca de Ginebra, en la frontera entre Francia y Suiza,
Berners-Lee y el científico de la computación belga Robert Cailliau
propusieron en 1990 utilizar el hipertexto "para vincular y acceder a
información de diversos tipos como una red de nodos en los que el
usuario puede navegar a voluntad", y Berners-Lee terminó el primer sitio web en diciembre de ese año. Berners-Lee publicó el proyecto en el grupo de noticias alt.hypertext el 7 de agosto de 1991.
Web 3.0
Un nuevo término, Web 3.0, surgió para relacionar las Webs semánticas.
Se trata de una extensión de World Wide Web, por la que se pueden encontrar datos en cualquier lengua y en formatos aptos para todo tipo de software.
Un nuevo término, Web 3.0, surgió para relacionar las Webs semánticas.
Se trata de una extensión de World Wide Web, por la que se pueden encontrar datos en cualquier lengua y en formatos aptos para todo tipo de software.
Se basa fundamentalmente en la información y su
estructuración, que le permite al usuario encontrarla de manera más
rápida y eficaz.
Web 3.0 es un neologismo que se utiliza para describir la
evolución del uso y la interacción en la red a través de diferentes
caminos.
Ello incluye, la transformación de la red en una base de
datos, un movimiento dirigido a hacer los contenidos accesibles por
múltiples aplicaciones que no son solamente el navegador, el empuje de las tecnologías de inteligencias artificial, la web Geoespacial, la Web 3D.
Frecuentemente es utilizado por el mercado para promocionar las mejoras respecto a la Web 2.0.
Otro posible camino para la Web 3.0 es la dirección hacia la visión 3D, liderada por el Web 3D Consortium.
Esto implicaría la transformación de la Web en una serie
de espacios 3D, llevando más lejos el concepto propuesto por Second
Life. Esto podría abrir nuevas formas de conectar y colaborar,
utilizando espacios tridimensionales.
El término Web 3.0 apareció por primera vez en 2006 en un
artículo de Jeffrey Zeldman crítico de la Web 2.0 y asociado a
tecnologías como AJAX.
Actualmente existe un debate considerable en torno a lo que significa Web 3.0, y cuál es la definición acertada.
Web 2.0
El término Web 2.0, acuñado por Tom O' Reilly en el año 2004 hace referencia a una segunda generación de modelos de páginas Web.
Se entiende como una nueva filosofía de navegar, una nueva forma de participar en la red.
Su antecesor, la Web 1.0, presenta un modelo de navegación más estático, este nuevo formato fomenta la participación activa.
El usuario ya no se limita a acceder a la información, sino que la crea.
Se entiende por Web 2.0 todos aquellos servicios de Internet cuya
base de datos puede ser modificada en contenido, formato o ambos.
Los usuarios tienen un control total de su información.
Se produce una descentralización de Internet por la que el cliente es, a su vez, servidor.
Este formato facilita la interactividad entre usuarios, que
se refleja sobre todo en el uso de redes sociales, engrandeciendo así
la inteligencia colectiva.
El modelo 2.0 ha provocado un fuerte impacto social. El
usuario tiene más poder en la red que nunca, ya que ahora tiene la
capacidad de expresarse libremente y de ser escuchado: tiene voz y voto
en Internet.
Simplifica la usabilidad del sitio Web y ahorra tiempo al usuario.
Estandariza los lenguajes para un mejor uso de la
re-utilización del código, permite una mejor interoperabilidad entre
las aplicaciones y las máquinas (software-hardware).
Facilita además el reconocimiento o detección de carencias o
nuevas formas de utilización de aplicaciones y la convergencia entre
los medios de comunicación y los contenidos.
Los principios del modelo 2.0 son los siguientes:
- La Web es una plataforma
- La información es lo que mueve Internet
- Los efectos de Internet son a su vez movidos por la participación
- Las distintas características de la red pueden desarrollarse de manera independiente
Web 1.0
La Web 1.0 empezó en los años 60, de la forma más básica que existe,
con navegadores de sólo texto, como ELISA, después surgió el HTML que
hizo las páginas más agradables a la vista y a los primeros navegadores visuales como Netscape e Internet Explorer.
Esta Web es de sólo lectura, el usuario no puede interactuar con el contenido de la página, se encuentra limitada a lo que el Webmaster sube al sitio Web.
Algunos elementos de diseño típicos de un sitio Web 1.0 incluyen:
- Páginas estáticas para el usuario que la visita
- El uso de framesets o marcos
- Extensiones propias del HTML como el parpadeo y las marquesinas, etiquetas introducidas durante la guerra de los navegadores.
- Libros de visitas en línea o guestbook
- Botones gif.
- Formularios HTML enviados vía email.
Topologia de malla
La topología de red malla es una topología de red en la que cada nodo está
conectado a todos los nodos. De esta manera es posible llevar los
mensajes de un nodo a otro por distintos caminos. Si la red de malla
está completamente conectada, no puede existir absolutamente ninguna
interrupción en las comunicaciones. Cada servidor tiene sus propias conexiones con todos los demás servidores.
Topologia de estrella
Una red
en estrella es una red de computadoras donde las estaciones están
conectadas directamente a un punto central y todas las comunicaciones se
hacen necesariamente a través de ese punto (conmutador, repetidor o
concentrador). Los dispositivos no están directamente conectados entre
sí, además de que no se permite tanto tráfico de información. Dada su
transmisión, una red en estrella activa tiene un nodo central “activo”
que normalmente tiene los medios para prevenir problemas relacionados
con el eco.
Se utiliza sobre todo para redes locales (LAN). La mayoría de las redes de área local que tienen un conmutador (switch) o un concentrador (hub) siguen esta topología. El punto o nodo central en estas sería el switch o el hub, por el que pasan todos los paquetes de usuarios.
Topologia de bus
Una red en bus es aquella
topologia que se caracteriza por tener un único canal de comunicaciones
(denominado bus o troncal) al cual se conectan los diferentes
dispositivos.
De esta forma todos los dispositivos comparten el mismo canal para comunicarse entre si.
De esta forma todos los dispositivos comparten el mismo canal para comunicarse entre si.
Topologia de anillo
Una red
en anillo es una topología de red en la que cada estación tiene una
única conexión de entrada y otra de salida. Cada estación tiene un
receptor y un transmisor que hace la función de traductor, pasando la
señal a la siguiente estación.
En este tipo de red la comunicación se da por el paso de un token o
testigo, que se puede conceptualizar como un cartero que pasa
recogiendo y entregando paquetes de información, de esta manera se
evitan eventuales pérdidas de información debidas a colisiones.
En un anillo doble (Token Ring), dos anillos permiten que los datos se envíen en ambas direcciones (Token passing). Esta configuración crea redundancia (tolerancia a fallos). Evita las colisiones.
Wan
WAN es la sigla de Wide Area Network, una expresión en lengua inglesa que puede traducirse como Red de Área Amplia. Esto quiere decir que la red WAN
es un tipo de red que cubre distancias de entre unos 100 y unos 1.000
kilómetros, lo que le permite brindar conectividad a varias ciudades o
incluso a un país entero.
Las redes WAN pueden ser desarrolladas por una empresa o una organización para un uso privado, o incluso por un proveedor de Internet (ISP, Internet Service Provider) para brindar conectividad a todos sus clientes.
Por lo general, la red WAN funciona punto a punto, por lo que puede definirse como una red de paquete conmutado. Estas redes, por otra parte, pueden utilizar sistemas de comunicación de radio o satelitales.
Entre los componentes de la red WAN aparecen los equipos que se dedican a ejecutar los programas de usuario y que reciben el nombre de hosts;
los enrutadores que concretan la división entre las líneas de
transmisión y los elementos de conmutación; y las subredes formadas a
partir de la interconexión de varios hosts.
Su velocidad de transmisión se encuentra entre 1 Mbps y 1 Gbps, aunque
este último límite puede cambiar drásticamente con los avances
tecnológicos. La red WAN se utiliza para establecer comunicaciones
privadas y los principales medios de transmisión en los que se basa son
la fibra óptica y el cable de teléfono. Ofrece una gran versatilidad
para hacer modificaciones en el software y en el hardware de los equipos que vincula y además permite establecer conexiones con otras redes.
Ventajas de la red WAN
* permite usar un software especial para que entre sus elementos de red coexistan mini y macrocomputadoras;
* no se limita a espacios geográficos determinados;
* ofrece una amplia gama de medios de transmisión, como ser enlaces satelitales.
Man
MAN es la sigla de Metropolitan Area Network, que puede traducirse como Red de Área Metropolitana. Una red MAN es aquella que, a través de una conexión de alta velocidad, ofrece cobertura en una zona geográfica extensa (como una ciudad o un municipio).
Con una red MAN es posible compartir e intercambiar
todo tipo de datos (texto, vídeos, audio, etc.) mediante fibra óptica o
cable de par trenzado. Este tipo de red supone una evolución de las redes LAN (Local Area Network o Red de Área Local), ya que favorece la interconexión en una región más amplia, cubriendo una mayor superficie. Por otro lado se encuentra la red WAN (Wide Area Network o Red de Área Amplia), que permite la interconexión de países y continentes.
Las redes MAN pueden ser públicas o privadas. Estas
redes se desarrollan con dos buses unidireccionales, lo que quiere decir
que cada uno actúa independientemente del otro respecto a la
transferencia de datos. Cuando se utiliza fibra óptica, la tasa de error
es menor que si se usa cable de cobre, siempre que se comparen dos
redes de iguales dimensiones. Cabe mencionar que ambas opciones son
seguras dado que no permiten la lectura o la alteración de su señal sin
que se interrumpa el enlace físicamente.
Entre los usos de las redes MAN, puede mencionarse
la interconexión de oficinas dispersas en una ciudad pero pertenecientes
a una misma corporación, el desarrollo de un sistema de videovigilancia
municipal y el despliegue de servicios de VoIP.
Lan
Una red de área local, red local o LAN (del inglés Local Area Network)
es la interconexión de varias computadoras y dispositivos periféricos.
Su extensión está limitada físicamente a un edificio o a un entorno de
200 metros, y con repetidores podría llegar hasta un área de 1
kilómetro.
Su aplicación más extendida es la interconexión de computadoras personales y estaciones de trabajo en oficinas, fábricas, etc., para compartir recursos e intercambiar datos y aplicaciones. En definitiva, permite una conexión entre dos o más equipos, lo que la perfila como una herramienta tecnológica que garantiza la conectividad.
Su aplicación más extendida es la interconexión de computadoras personales y estaciones de trabajo en oficinas, fábricas, etc., para compartir recursos e intercambiar datos y aplicaciones. En definitiva, permite una conexión entre dos o más equipos, lo que la perfila como una herramienta tecnológica que garantiza la conectividad.
Características de la red LAN
- Opera dentro de un área geográfica limitada.
- Permite el multiacceso a medios con alto ancho de banda.
- Controla la red de forma privada con administración local.
- Proporciona conectividad continua a los servicios locales.
- Conecta dispositivos físicamente adyacentes.
Quinta generacion de computadoras
Considerando los avances tecnológicos en el área de la informática y de
la computación, se podrían precisar algunas fechas y características
propias de lo que se denomina la quinta generación de computadoras, la cual se extendió desde del año 1982 hasta el año 1989.
Durante el siglo XX los avances tecnológicos abarcaron cambios
significativos para la siguiente generación de computadores hasta la
actualidad, siendo el auge de los computadores con inteligencia artificial y funcionalidad dirigido a un nivel práctico
donde abarca el uso cotidiano y no sólo la maquinaria industrial, como
también el aprovechamiento de la nueva herramienta creada, el Internet.
En esta generación de computadoras se vive una era en la cual la mayoría
de las cosas son controladas por diferentes tipos de máquinas. Estas
computadoras se basan en una inteligencia artificial muy sofisticada. Asimismo, utilizan varios CPU para tener una velocidad de manejo de la información más rápido.
- Una mayor velocidad y mayor miniaturización de sus elementos.
- La posibilidad de conexiones con cualquier tipo de red como con otros dispositivos, dado a que contaban con puertos de entrada, que hacían posible la salida y la entrada de información.
- La inteligencia artificial permitió el desarrollo de un lenguaje natural, la capacidad para la traducción de diversos lenguajes de forma rápida y con gran eficiencia, así como también, el reconocimiento de palabras generado a partir de la voz. Esta inteligencia también permitió la resolución efectiva de procedimientos matemáticos.
- El uso de dispositivos de almacenamiento para resguardar la información que empezaba a generar estos computadores, debido a esta nueva característica a la funcionalidad se empieza a pensar en la unión de varios formatos como es la imagen con el sonido, el área de multimedia se comienza a expandir al igualmente que los dispositivos que lo respaldan.
- La utilización de microprocesadores a partir del requerimiento de reducción al tamaño de los componentes como la unión de varios de éstos, que se interconectaban creando los multiprocesadores. Se concibieron los computadores portátiles o PC, siento estos una miniaturización o simplificación de los computadores industriales.
- El desarrollo de la lectura por voz, característica que permite que el computador se active a través de palabras o frases simples para responder a una actividad o búsqueda.
- Integración de circuitos de entrada y de salida, como por ejemplo, los disquetes o discos flexibles que permitían el almacenamiento efectivo de información.
Cuarta generacion de computadoras
En la cuarta generación de computadoras hubo un cambio radical que marcó un antes y un después en la revolución tecnológica, todo esto debido a la aparición de los microprocesadores que significaron un gran avance de la microelectrónica.
Se trata de circuitos integrados rápidos y de alta densidad. Económicas
y reducidas en tamaño, las microcomputadoras se extienden al mercado
industrial. Con esto aparecen las computadoras personales, volviéndose
imprescindibles en nuestra sociedad, dándole la bienvenida a la
"revolución informática".
La cuarta generación de computadoras (1971 a 1981) se produjo con el microprocesador de los circuitos electrónicos. La pequeña dimensión del microprocesador de chips fue fundamental para la creación de las computadoras personales (PC).
En la actualidad las tecnologías LSI (Integración a gran escala) y VLSI
(Integración a muy gran escala) permiten que miles de componentes
electrónicos se almacenen en un chip. Usando la tecnología VLSI, una
computadora pequeña no tiene nada que envidiarle a una computadora de la
primera generación que ocupaba un cuarto completo. Definitivamente las
microcomputadoras llegaron para quedarse.
La característica más importante de las computadoras de la cuarta generación, es sin duda alguna su tamaño,
que se debía al uso de la tecnología de microprocesador / VLSI. Gracias
a ello, las mismas contaban con otras ventajosas características:
- Mucho menos costosas
- Más portátiles
- Tamaño mucho más pequeño
- Disponibles para cualquier tipo de personas.
- Lenguaje Básico de Computación
- Computer Mouse y GUI hacen que las computadoras sean más agradables
- Más poderosas y confiables que las generaciones anteriores.
- Potencia de procesamiento rápida con menos consumo de energía
- No se requiere aire acondicionado.
- Producción comercial
Tercera generacion de computadoras
La tercera generación de computadoras abarcó un período entre 1964 y 1971. Marcó una nueva era que se definió por el perfeccionamiento de los C.I.,
es decir, los circuitos integrados creados desde 1958, que son unos
chips o pastillas de silicio, que permiten la colocación de enormes
cantidades de dispositivos electrónicos en un mínimo espacio, logrando disminuir nuevamente el tamaño de las computadora e incorporando la multiprogramación. Su uso revolucionó la forma de componer computadoras, vigente hasta hoy en día en la fabricación de celulares, calculadoras.
Las computadoras de la tercera generación poseían circuitos integrados,
en otras palabras, circuitos obtenidos, grabando cientos y más tarde,
miles de transistores microscópicos en los chips de silicio. Dichos
dispositivos se conocían como semiconductores. Por otra parte, la
capacidad de memoria de estas computadoras llegaba hasta 2 megabytes y la rapidez del procesamiento alcanzaba 5 millones de instrucciones por segundo. Esta generación de computadoras, permitió la introducción de programas capaces de ser manipulados por los usuarios sin formación técnica.
La incorporación de los circuitos integrados hizo posible una nueva
generación de computadoras con las siguientes características:
- Mucho más pequeñas.
- Emanaban menor cantidad de calor por lo que se redujeron las necesidades de refrigeración.
- Al ser más pequeñas requerían además de un reducido consumo de energía eléctrica.
- Las interconexiones de los circuitos integrados son mucho más fiables que las conexiones soldadas generando computadoras más flexibles.
- Minicomputadoras, más económicas y con una mayor capacidad de procesamiento
- Teleproceso (procesamiento de datos provenientes de terminales en una unidad central)
- Multiprogramación (técnica en la que dos o más procesos se ejecutan simultáneamente por el CPU mientras se alojan en la memoria principal).
- Renovación de periféricos
- El número π (Pi) se logró calcular arrojando más de quinientos mil decimales.
Segunda generacion de computadoras
La segunda generación de computadoras abarcó el período comprendido entre 1959 y 1964. Esta generación marcó una nueva era que se definió por el reemplazo de las válvulas de vacío por los transistores,
lo que implicó la creación de computadoras más confiables y con menores
necesidades de ventilación, haciéndolas comercialmente accesibles y
poderosas. Además, el uso de lenguajes de alto nivel
permitió el mejoramiento en la implementación de programas y su uso en
sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y
simulaciones de propósito general. Las grandes empresas comenzaron a
utilizar la computadora en tareas de almacenamiento, registro, manejo de
inventarios, nómina y contabilidad.
La segunda generación de computadoras marca un hito en la historia de
las computadoras gracias al avance tecnológico que significó la creación
de los transistores para procesar información en reemplazo de los tubos al vacío. 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío, característica que los hacía más rápidos, pequeños y más confiables. Se comenzó a disminuir el tamaño de las computadoras y se utilizaban pequeños anillos magnéticos para almacenar información e instrucciones.
Por otra parte, se mejoraron los programas de computadoras que fueron
concebidos durante la primera generación, ya que se desarrollaron nuevos
lenguajes de programación como COBOL y FORTRAN.
El invento del transistor hizo posible una nueva generación de computadoras con las siguientes características:
- Fueron construidas con electrónica de transistores.
- Ocupaban menos espacio y producían menos calor que las computadoras que operaban a base de tubos de vacío.
- Más poderosas, más confiables, y menos costosas, lo que las hizo más comerciales.
- Se programaban con lenguajes de alto nivel lo que permitía nuevas utilidades en las que podía utilizarse.
- Utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario, que contenían pequeños anillos de material magnético vinculados entre sí, en los cuales podían almacenarse datos e instrucciones.
Primera generacion de computadoras
La primera generación de computadoras se lanzó al mercado a mediados del siglo XX,
específicamente ente 1946 y 1958, época que generó grandes avances
tecnológicos a partir de la búsqueda de un instrumento de ayuda en el
ámbito científico y en el militar. Estas computadoras fueron muy notorias y particulares por la magnitud de su tamaño y por el poco poder para adquirir una.
Características
La primera generación de computadoras generada a mediados del siglo XX, contaba con el primer indicio o antecedente de las computadoras modernas, pero entre sus características principales estaba su gran tamaño así como su elevado costo de adquisición y el tema recurrente de fallas y errores por ser experimentales.
Contaban con el uso de tubos al vacío para procesar la información, tarjetas perforadas para la entrada y salida de los datos y programas, y usaban cilindros magnéticos para almacenar información e instrucciones internas.
Las primeras en el mercado tenían un coste aproximado de unos 10.000 dólares. Por ser de gran tamaño, su uso implicaba una gran cantidad de electricidad, generando un sobre calentamiento en el sistema, llegando a requerir sistemas auxiliares de aire acondicionado
especial (con el fin de evitar este sobrecalentamiento). Como por
ejemplo, el ordenador ENIAC de grandes dimensiones que llegaba a pesar
30 toneladas.
Los ordenadores de primera generación usaban tambores magnéticos como elementos de almacenamiento de datos para ser cambiados luego en la segunda generación por memorias de ferrita.
Comercio electronico
¿Que es comercio electrónico?
Es solo el proceso de compra y venta de productos por medios
electrónicos, como las aplicaciones móviles e Internet. El comercio
electrónico se refiere tanto al comercio minorista en línea como a las
transacciones electrónicas. El comercio electrónico ha aumentado
enormemente en popularidad en las últimas décadas y, en cierto modo,
está reemplazando a las tiendas tradicionales de ladrillo y mortero.
El comercio electrónico le permite comprar y vender productos en un escala global, veinticuatro horas al día sin incurrir en los mismos gastos generales como lo haría con la ejecución de un tienda de ladrillo y mortero.
Para obtener la mejor combinación de marketing y la mejor tasa de
conversión, una empresa de comercio electrónico también debe tener una
presencia física; Esto es mejor conocido como una tienda de clic y
mortero.
Suscribirse a:
Comentarios (Atom)