miércoles, 23 de junio de 2010

ADMINISTRACION DE SITIOS EN LA WEB

sitios virtuales.

El servicio de servidores virtuales consiste en tener un alias para su espacio asignado dentro del servidor de Web del Campus, de tal forma que su página pueda tener un nombre propio dentro del dominio del ITESM, Campus Monterrey (http://nombre.mty.itesm.mx) y puede ser solicitado para cualquier entidad organizacional del Tec de Monterrey, Campus Monterrey (departamentos, centros, carreras) o grupo estudiantil reconocido por el Departamento de Desarrollo Estudiantil.

No puede ser solicitado para páginas personales, materias o eventos específicos. El nombre que se solicite será otorgado siempre y cuando esté disponible, es decir, que no haya sido registrado anteriormente por alguna otra entidad.

Si estás interesado en contar con tu propio sitio virtual, realiza el procedimiento que incluye leer las características y políticas del servicio y llenar tu solicitud. Tu solicitud recibirá respuesta en un máximo de tres días hábiles.



SITIO DE SUBASTA.

Las subastas en internet les ofrecen a los compradores un "mercado de pulgas virtual" donde pueden elegir un surtido de mercaderías nuevas y usadas provenientes de todo el mundo y brindan a los vendedores una "vidriera al mundo" desde la cual pueden comercializar sus mercaderías. Pero el negocio de subastas en línea puede resultar riesgoso. Alerta en Línea desea ayudar a los compradores y vendedores a mantenerse seguros en los sitios de subastas en internet. Entre las miles de quejas de consumidores defraudados que recibe anualmente la Comisión Federal de Comercio (Federal Trade Commission, FTC) las quejas relacionadas a subastas fraudulentas en línea son una de las más comunes. Generalmente, las quejas recibidas se refieren a demoras de entrega, falta de entrega o envíos de productos que no son de la misma calidad que la anunciada; falsos servicios de pago en línea o servicios de depósito en garantía (escrow) en línea y comerciantes fraudulentos que atraen engañosamente a los oferentes o postores de los sitios de subastas legítimos tentándolos con tratos que aparentan ser mejores. La mayoría de las quejas involucra a los vendedores, pero en algunos casos también están implicados los compradores.
Ya sea usted un comprador o vendedor, comprender el funcionamiento de las subastas en internet puede ayudarlo a evitar la mayoría de estos problemas.


Cómo funcionan las subastas en internet — Reglas del mercadoRol del sitio de subastas. La mayoría de los sitios de subastas en internet se especializa en actividades persona-a-persona, en las cuales los vendedores individuales o los pequeños negocios venden sus artículos directamente a los consumidores. En este tipo de subasta es el vendedor y no el sitio Web de subastas quien tiene la posesión física de la mercadería y frecuentemente el sitio no asumirá ninguna responsabilidad por cualquier problema que pueda surgir entre compradores y vendedores. Antes de usar por primera vez un sitio de subastas en internet, los compradores y vendedores deben leer los Términos de Uso (Terms of Use) y revisar la información que ofrece el sitio Web.
Inscripción. La mayoría de los sitios de subastas en internet requiere que los vendedores se registren y obtengan un "nombre de usuario de cuenta" (account name) o "nombre de pantalla" (screen name) y una contraseña antes de hacer sus ofertas o poner los artículos a la venta en subasta. Conserve su contraseña de manera secreta ya que si la comparte, alguna otra persona podría acceder a su cuenta y comprar o vender artículos sin su conocimiento. Esto podría perjudicar su reputación en línea — y eventualmente, su cuenta bancaria.
Cargos. Algunos sitios de subastas requieren que los vendedores den su acuerdo consintiendo pagar un cargo cada vez que realicen una subasta independientemente de que vendan o no el artículo ofrecido. Otros sitios solamente cobran un cargo cuando se vende un artículo.
La subasta. Muchos vendedores establecen un límite de tiempo para ofertar y en algunos casos fijan un "precio de reserva o precio base" — el precio más bajo que aceptarán por un artículo. Cuando se cierra el período de oferta o apuesta, el artículo se vende al postor que hizo la oferta más alta. Si nadie ofrece el precio de base o un monto superior, la subasta se cierra sin que se venda el artículo.
Algunos sitios de subastas en internet permiten a los vendedores establecer un precio por el cual un comprador puede comprar el artículo sin competir con otros postores. Un comprador puede adquirir el ítem por el precio establecido por el vendedor sin participar de una subasta.








SITIO VIRTUAL.


El servicio de servidores virtuales consiste en tener un alias para su espacio asignado dentro del servidor de Web del Campus, de tal forma que su página pueda tener un nombre propio dentro del dominio del ITESM, Campus Monterrey (http://nombre.mty.itesm.mx) y puede ser solicitado para cualquier entidad organizacional del Tec de Monterrey, Campus Monterrey (departamentos, centros, carreras) o grupo estudiantil reconocido por el Departamento de Desarrollo Estudiantil.

No puede ser solicitado para páginas personales, materias o eventos específicos. El nombre que se solicite será otorgado siempre y cuando esté disponible, es decir, que no haya sido registrado anteriormente por alguna otra entidad.

Si estás interesado en contar con tu propio sitio virtual, realiza el procedimiento que incluye leer las características y políticas del servicio y llenar tu solicitud. Tu solicitud recibirá respuesta en un máximo de tres días hábiles.









TIENDA VIRTUAL.


TIENDAS VIRTUALES
ES TODO LO KE SE VENDE POR INTERNET
Una tienda en línea (también conocida como tienda online, tienda virtual o tienda electrónica) se refiere a un comercio convencional que usa como medio principal para realizar sus transacciones un sitio web de Internet.

Los vendedores de productos y servicios ponen a disposición de sus clientes un sitio web en el cual pueden observar imágenes de los productos, leer sus especificaciones y finalmente adquirirlos. Este servicio le da al cliente rapidez en la compra, la posiblidad de hacerlo desde cualquier lugar y a cualquier hora. Algunas tiendas en línea incluyen dentro de la propia página del producto los manuales de usuario de manera que el cliente puede darse una idea de antemano de lo que está adquiriendo; igualmente incluyen la facilidad para que compradores previos califiquen y evalúen el producto.

Típicamente estos productos se pagan mediante tarjeta de crédito y se le envían al cliente por correo, aunque según el país y la tienda pueden haber otras opciones.

La inmensa mayoría de tiendas en línea requieren la creación de un usuario en el sitio web a partir de datos como nombre, dirección y correo electrónico. Este último a veces es utilizado como medio de validación.

Debido a las amenazas a la privacidad de los datos en Internet y la amenaza de robo de identidad es muy importante hacer compras en línea solamente en sitios reconocidos y de buena reputación. Igualmente es recomendable no proporcionar datos personales ni de tarjeta de crédito si no se está utilizando una conexión segura.

Aunque varios vendedores en línea están dispuestos a hacer envios internacionales, por ejemplo desde Estados Unidos a algún país de América Latina, no pueden grantizar el despacho del envío por la incertidumbre sobre el servicio de correo hacia dichos países. Estos envíos internacionales dificultan también las devoluciones y los reclamos por garantía. Finalmente los servicios de aduanda locales en el país de destino pueden exigir el pago de impuestos adicionales a la hora de introducir los productos al país





MERCADO NEGRO.

Mercado negro o economía subterránea es el término utilizado para describir la venta clandestina e ilegal de bienes y servicios, violando la fijación de precios o el racionamiento impuesto por el gobierno o las empresas.

El fenómeno del mercado negro surge en tiempos de crisis o en periodos de control gubernamental de la economía, usualmente cuando la escasez de bienes de primera necesidad obliga a los gobiernos a imponer controles de precios o racionamiento de bienes. En estas circunstancias, los vendedores estarían dispuestos a saltarse las leyes con tal de conseguir mayores ganancias, en tanto que los compradores estarían dispuestos a pagar precios más elevados (a veces no les quedaría más remedio) para conseguir un activo que les es prohibido o limitado.

Es decir, situaciones en que exista más demanda que oferta, y que la oferta existente no se venda por estas prohibiciones o porque simplemente los comerciantes pueden vender a un mejor precio en un mercado no establecido, como lo es un mercado negro.

El mercado negro no se aplica exclusivamente a productos de primera necesidad: los países que prohíben, restringen o permiten la venta a elevado precio de tabaco o alcohol propician la aparición de personas que introducen estos productos ilegalmente. Igualmente, la compraventa de drogas, armas y otras sustancias no permitidas por la ley forman mercados negros de enormes dimensiones.

Los cambios ilícitos de moneda también suelen ser considerados como operaciones de mercado negro. En este caso, la causa es la fijación de un tipo de cambio oficial a niveles que no reflejan su tipo de cambio real. De este modo, los poseedores de moneda extranjera fuerte (usualmente dólares, pero recientemente también euros) las venden fuera de los mercados oficiales, para no tener que cambiarlas a tipos de cambio menos ventajosos.

SEGURIDAD DE LA INFORMACION.



En la seguridad de la información es importante señalar que su manejo está basado en la tecnología y debemos de saber que puede ser confidencial: la información está centralizada y puede tener un alto valor. Puede ser divulgada, mal utilizada, ser robada, borrada o saboteada. Esto afecta su disponibilidad y la pone en riesgo.

La información es poder y a la información se le conoce como:

Critica: Es indispensable para la operación de la empresa. Valiosa: Es un activo de la empresa y muy valioso. Sensitiva: Debe de ser conocida por las personas autorizadas

Existen dos palabras muy importantes que son riesgo y seguridad:

Riesgo: Es todo tipo de vulnerabilidades, amenazas que pueden ocurrir sin previo aviso
Seguridad: Es una forma de protección contra los riesgos
La seguridad de la información abarca muchas cosas, pero todas estas giran entorno a la información. Por ejemplo la disponibilidad, comunicación, identificación de problemas, análisis de riesgos, la integridad, confidencialidad, recuperación de los riesgos.

Precisamente los riesgos es uno de los mayores problemas en la seguridad, ya que de TI debe de tener tres planos uno en el peor de los casos, otro un estado medio y un estado favorable. Ya que de esta manera se podrá mitigar el daño que se pueda provocar por que ya se tomaron medidas. No se puede decir que la seguridad teda un 100% de tranquilidad ya que cada día aparece un código nuevo o un ataque diferente, etc. pero tienes menos conflictos y un sistema en condiciones de producir.

Seguridad de la Información tiene como fin la protección de la información y de los sistemas de la información del acceso, uso, divulgación, interrupción o destrucción no autorizada.[1]

El termino Seguridad de Información, Seguridad informática y garantía de la información son usados con frecuencia y aunque su significado no es el mismo, persiguen una misma finalidad al proteger la Confidencialidad, Integridad y Disponibilidad de la información; Sin embargo entre ellos existen algunas diferencias sutiles. Estas diferencias radican principalmente en el enfoque , las metodologías utilizadas, y las zonas de concentración.

La Seguridad de la Información se refiere a la Confidencialidad, Integridad y Disponibilidad de la información y datos, independientemente de la forma los datos pueden tener: electrónicos, impresos, audio u otras formas.

Además, la seguridad de la información involucra la implementación de estrategias que cubran los procesos en donde la información es el activo primordial. Estas estrategias deben tener como punto primordial el establecimiento de políticas, controles de seguridad, tecnologías y procedimientos para detectar amenazas que puedan explotar vulnerabilidades y que pongan en riesgo dicho activo, es decir, que ayuden a proteger y salvaguardar tanto información como los sistemas que la almacenan y administran.

Cabe mencionar que la seguridad es un proceso continuo de mejora por lo que las políticas y controles establecidos para la protección de la información deberán revisarse y adecuarse, de ser necesario, ante los nuevos riesgos que surjan, a fin de tomar las acciones que permitan reducirlos y en el mejor de los casos eliminarlos.





PRINCIPIOS BACICOS.


Los Gobiernos, entidades militares, instituciones financieras, los hospitales y las empresas privadas acumulan una gran cantidad de información confidencial sobre sus empleados, clientes, productos, investigación y su situación financiera. La mayor parte de esta información es recolectada, tratada, almacenada y puesta a la disposición de sus usuarios, en computadoras y trasmitida a través de las redes entre los ordenadores.

En caso de que la información confidencial de una empresa, sus clientes, sus decisiones, su estado financiero o nueva línea de productos caigan en manos de un competidor; se vuelva pública de forma no autorizada, podría ser causa de la pérdida de credibilidad de los clientes, pérdida de negocios, demandas legales o incluso la quiebra de la misma.

Por lo que proteger la información confidencial es un requisito del negocio, y en muchos casos también un imperativo ético y una obligación legal.

Para el individuo común, la Seguridad de la Información tiene un efecto significativo respecto a su privacidad, la que puede cobrar distintas dimensiones dependiendo de la cultura del mismo.

El campo de la Seguridad de la Información ha crecido y evolucionado considerablemente en los últimos años. Convirtiéndose en una carrera acreditada a nivel mundial. La misma ofrece muchas áreas de especialización, incluidos la auditoría de sistemas de información, Planificación de la continuidad del negocio, Ciencia Forense Digital y Administración de Sistemas de Gestión de Seguridad por nombrar algunos.

CONCEPTOS IMPORTANTES.
Por más de veinte años la Seguridad de la Información ha declarado que la confidencialidad, integridad y disponibilidad (conocida como la Tríada CIA, del inglés: "Confidentiality, Integrity, Availability") son los principios básicos de la seguridad de la información.

La correcta Gestión de la Seguridad de la Información busca establecer y mantener programas, controles y políticas, que tengan como finalidad conservar la confidencialidad, integridad y disponibilidad de la información, si alguna de estas características falla no estamos ante nada seguro. Es preciso anotar, además, que la seguridad no es ningún hito, es más bien un proceso continuo que hay que gestionar conociendo siempre las vulnerabilidades y las amenazas que se ciñen sobre cualquier información, teniendo siempre en cuenta las causas de riesgo y la probabilidad de que ocurran, así como el impacto que puede tener. Una vez conocidos todos estos puntos, y nunca antes, deberán tomarse las medidas de seguridad oportunas.





CONFIDENCIALIDAD.

La confidencialidad es la propiedad de prevenir la divulgación de información a personas o sistemas no autorizados.

Por ejemplo, una transacción de tarjeta de crédito en Internet requiere que el número de tarjeta de crédito a ser transmitida desde el comprador al comerciante y el comerciante de a una red de procesamiento de transacciones. El sistema intenta hacer valer la confidencialidad mediante el cifrado del número de la tarjeta y los datos que contiene la banda magnética durante la transmisión de los mismos. Si una parte no autorizada obtiene el número de la tarjeta en modo alguno, se ha producido una violación de la confidencialidad.

La pérdida de la confidencialidad de la información puede adoptar muchas formas. Cuando alguien mira por encima de su hombro, mientras usted tiene información confidencial en la pantalla, cuando se publica información privada, cuando un laptop con información sensible sobre una empresa es robado, cuando se divulga información confidencial a través del teléfono, etc. Todos estos casos pueden constituir una violación de la confidencialidad



INTEGRIDAD
Para la Seguridad de la Información, la integridad es la propiedad que busca mantener los datos libres de modificaciones no autorizadas. (No es igual a integridad referencial en bases de datos.) La violación de integridad se presenta cuando un empleado, programa o proceso (por accidente o con mala intención) modifica o borra los datos importantes que son parte de la información, así mismo hace que su contenido permanezca inalterado a menos que sea modificado por personal autorizado, y esta modificación sea registrada, asegurando su precisión y confiabilidad. La integridad de un mensaje se obtiene adjuntándole otro conjunto de datos de comprobación de la integridad: la huella digital Es uno de los pilares fundamentales de la seguridad de la informacion

Disponibilidad

La Disponibilidad es la característica, cualidad o condición de la información de encontrarse a disposición de quienes deben acceder a ella, ya sean personas, procesos o aplicaciones.

En el caso de los sistemas informáticos utilizados para almacenar y procesar la información, los controles de seguridad utilizado para protegerlo, y los canales de comunicación protegidos que se utilizan para acceder a ella deben estar funcionando correctamente. La Alta disponibilidad sistemas objetivo debe seguir estando disponible en todo momento, evitando interrupciones del servicio debido a cortes de energía, fallos de hardware, y actualizaciones del sistema.

Garantizar la disponibilidad implica también la prevención de ataque Denegación de servicio.

La disponibilidad además de ser importante en el proceso de seguridad de la información, es además variada en el sentido de que existen varios mecanismos para cumplir con los niveles de servicio que se requiera, tales mecanismos se implementan en infraestructura tecnológica, servidores de correo electrónico, de bases de datos, de web etc, mediante el uso de clusters o arreglos de discos, equipos en alta disponibilidad a nivel de red, servidores espejo, replicación de datos, redes de almacenamiento (SAN), enlaces redundantes, etc. La gama de posibilidades dependerá de lo que queremos proteger y el nivel de servicio que se quiera proporcionar


Otros conceptos relacionados son:

Auditabilidad: Permitir la reconstrucción, revisión y análisis de la secuencia de eventos
Identificación: verificación de una persona o cosa; reconocimiento.
Autenticación: Proporcionar una prueba de identidad; puede ser algo que se sabe, que se es, se tiene o una combinación de todas.
Autorización: Lo que se permite cuando se ha otorgado acceso
No repudio: no se puede negar un evento o una transacción.
Seguridad en capas: La defensa a profundidad que contenga la inestabilidad
Control de Acceso: limitar el acceso autorizado solo a entidades autenticadas
Métricas de Seguridad, Monitoreo: Medición de actividades de seguridad
Gobierno: proporcionar control y dirección a las actividades
Estrategia: los pasos que se requieren para alcanzar un objetivo
Arquitectura: el diseño de la estructura y las relaciones de sus elementos
Gerencia: Vigilar las actividades para garantizar que se alcancen los objetivos
Riesgo: la explotación de una vulnerabilidad por parte de una amenaza
Exposiciones: Áreas que son vulnerables a un impacto por parte de una amenaza
Vulnerabilidades: deficiencias que pueden ser explotadas por amenazas
Amenazas: Cualquier acción o evento que puede ocasionar consecuencias adversas
Riesgo residual: El riesgo que permanece después de que se han implementado contra medidas y controles
Impacto: los resultados y consecuencias de que se materialice un riesgo
Criticidad: La importancia que tiene un recurso para el negocio
Sensibilidad: el nivel de impacto que tendría una divulgación no autorizada
Análisis de impacto al negocio: evaluar los resultados y las consecuencias de la inestabilidad
Controles: Cualquier acción o proceso que se utiliza para mitigar el riesgo
Contra medidas: Cualquier acción o proceso que reduce la vulnerabilidad
Políticas: declaración de alto nivel sobre la intención y la dirección de la gerencia
Normas: Establecer los límites permisibles de acciones y procesos para cumplir con las políticas
Ataques: tipos y naturaleza de inestabilidad en la seguridad
Clasificación de datos: El proceso de determinar la sensibilidad y Criticidad de la información







QUE ES UN BLOG



QUE ES UN BLOG?

Un blog, o en español también una bitácora, es un sitio web periódicamente actualizado que recopila cronológicamente textos o artículos de uno o varios autores, apareciendo primero el más reciente, donde el autor conserva siempre la libertad de dejar publicado lo que crea pertinente. El nombre bitácora está basado en los cuadernos de bitácora, cuadernos de viaje que se utilizaban en los barcos para relatar el desarrollo del viaje y que se guardaban en la bitácora. Aunque el nombre se ha popularizado en los últimos años a raíz de su utilización en diferentes ámbitos, el cuaderno de trabajo o bitácora ha sido utilizado desde siempre.

DESCRIPCION
Habitualmente, en cada artículo de un blog, los lectores pueden escribir sus comentarios y el autor darles respuesta, de forma que es posible establecer un diálogo. No obstante es necesario precisar que ésta es una opción que depende de la decisión que tome al respecto el autor del blog, pues las herramientas permiten diseñar blogs en los cuales no todos los internautas -o incluso ninguno- puedan participar agregando comentarios. El uso o tema de cada blog es particular, los hay de tipo: periodístico, empresarial o corporativo, tecnológico, educativo (edublogs), políticos, personales (Contenidos de todo tipo), etc

Este término inglés blog o weblog proviene de las palabras web y log ('log' en inglés = diario). El término bitácora, en referencia a los antiguos cuadernos de bitácora de los barcos, se utiliza preferentemente cuando el autor escribe sobre su vida propia como si fuese un diario, pero publicado en la web (en línea).


HISTORIA?

Antes de que los blogs se hicieran populares, existían comunidades digitales como USENET,xrt listas de correo electrónico y BBS. En los años 90 los programas para crear foros de internet, como por ejemplo WebEx, posibilitaron conversaciones con hilos. Los hilos son mensajes que están relacionados con un tema del foro.

1994-2000
El blog moderno es una evolución de los diarios en línea, donde la gente escribía sobre su vida personal, como si fuesen un diario íntimo pero en red. Las páginas abiertas Webring incluían a miembros de la comunidad de diarios en línea. Justin Hall, quien escribió desde 1994 su blog personal, mientras era estudiante de la Universidad de Swarthmore, es reconocido generalmente como uno de los primeros blogueros.[1]

También había otras formas de diarios en línea. Un ejemplo era el diario del programador de juegos John Carmack, publicado mediante el protocolo Finger. Los sitios web, como los sitios corporativos y las páginas web personales, tenían y todavía tienen a menudo secciones sobre noticias o novedades, frecuentemente en la página principal y clasificados por fecha. Uno de los primeros precursores de un blog fue el sitio web personal de Kibo, actualizado mediante USENET.

Los primeros blogs eran simplemente componentes actualizados de sitios web comunes. Sin embargo, la evolución de las herramientas que facilitaban la producción y mantenimiento de artículos web publicados y ordenados de forma cronológica, hizo que el proceso de publicación pudiera dirigirse hacia muchas más personas, y no necesariamente a aquellos que tuvieran conocimientos técnicos. Últimamente, esto ha llevado a que en la actualidad existan diversos procedimientos para publicar blogs. Por ejemplo, el uso de algún tipo de software basado en navegador, es hoy en día un aspecto común del blogging. Los blogs pueden ser construidos y almacenados usando servicios de alojamiento de blogs dedicados, o pueden ser concretados y accedidos mediante software genérico para blogs, como por ejemplo usando los productos Blogger o LiveJournal, o mediante servicios de alojamiento web corrientes como DreamHost.

El término "weblog" fue acuñado por Jorn Barger el 17 de diciembre de 1997. La forma corta, "blog", fue acuñada por Peter Merholz, quien dividió la palabra weblog en la frase we blog en la barra lateral de su blog Peterme.com en abril o mayo de 1999.[2] [3] [4] Rápidamente fue adoptado tanto como nombre y verbo (asumiendo "bloguear" como "editar el weblog de alguien o añadir un mensaje en el weblog de alguien").

Tras un comienzo lento, los blogs ganaron popularidad rápidamente; el sitio Xanga, lanzado en 1996, sólo tenía 100 diarios en 1997, pero más de 50.000.000 en diciembre de 2005. El uso de blogs se difundió durante 1999 y los siguientes años, siendo muy popularizado durante la llegada casi simultánea de las primeras herramientas de alojamiento de blogs:

Open Diary lanzado en octubre de 1998, pronto creció hasta miles de diarios online. Open Diary innovó en los comentarios de los lectores, siendo el primer blog comunitario donde los lectores podían añadir comentarios a las entradas de los blogs.
Brad Fitzpatrick comenzó LiveJournal en marzo de 1999.
Andrew Smales creó Pitas.com en julio de 1999 como una alternativa más fácil para mantener una "página de noticias" en un sitio web, seguido de Diaryland en septiembre de 1999, centrándose más en la comunidad de diarios personales.[5]
Evan Williams y Meg Hourihan (Pyra Labs) lanzaron Blogger.com en agosto de 1999, y que fue adquirido por Google en febrero de 2003
El blogging combinaba la página web personal con herramientas para poder enlazar con otras páginas más fácilmente —en concreto permalinks, blogrolls y trackbacks. Esto, junto a los motores de búsqueda de weblogs permitió a los blogueros llevar un seguimiento de los hilos que les conectaban con otros usuarios con intereses similares.

2000–2006
Los primeros blogs estadounidenses populares aparecieron en 2001: AndrewSullivan.com de Andrew Sullivan, Politics1.com de Ron Gunzburger, Political Wire de Taegan Goddardy MyDD de Jerome Armstrong — tratando principalmente temas políticos.

En 2002, el blogging se había convertido en tal fenómeno que comenzaron a aparecer manuales, centrándose principalmente en la técnica. La importancia de la comunidad de blogs (y su relación con una sociedad más grande) cobró importancia rápidamente. Las escuelas de periodismo comenzaron a investigar el fenómeno de los blogs, y a establecer diferencias entre el periodismo y el blogging.

En 2002, el amigo de Jerome Armstrong y ex-socio Markos Moulitsas Zúniga comenzó DailyKos. Con picos de hasta un millón de visitas diarias, ese espacio web se ha convertido en uno de los blogs con más tráfico de Internet.

En el año 2006, se escogió la fecha del 31 de agosto, para celebrar en toda la red, el llamado "día internacional del Blog". La idea nació de un bloguero (usuario de blog) israelí llamado Nir Ofir, que propuso que en esta fecha, los blogueros que desarrollaban bitácoras personales enviaran cinco invitaciones de cinco blogs de diferentes temáticas a cinco diferentes contactos, para que así los internautas dieran difusión a blogs que seguramente otras personas desconocían, y que eventualmente les pudiera resultar interesantes.[6]

2007–Presente
Hoy en día el blogging es uno de los servicios más populares en el Internet, llegando hasta el punto que cantantes o actores famosos tienen blogs, así también como empresas Internacionales inclusive. Entre los servidores de blogs más populares se encuentran Blogger y Wordpress.









HERRAMIENTAS PARA LA CREACION Y SU MANTENIMIENTO?

Existen variadas herramientas de mantenimiento de blogs que permiten, muchas de ellas gratuitamente y sin necesidad de elevados conocimientos técnicos, administrar todo el weblog, coordinar, borrar, o reescribir los artículos, moderar los comentarios de los lectores, etc., de una forma casi tan sencilla como administrar el correo electrónico. Actualmente su modo de uso se ha simplificado a tal punto, que casi cualquier usuario es capaz de crear y administrar un blog personal.

Las herramientas de mantenimiento de weblogs se clasifican, principalmente, en dos tipos: aquellas que ofrecen una solución completa de alojamiento, gratuita (como Freewebs, Blogger y LiveJournal), y aquellas soluciones consistentes en software que, al ser instalado en un sitio web, permiten crear, editar, y administrar un blog, directamente en el servidor que aloja el sitio (como es el caso de WordPress o de Movable Type). Este software es una variante de las herramientas llamadas Sistemas de Gestión de Contenido (CMS), y muchos son gratuitos. La mezcla de los dos tipos es la solución planteada por la versión multiusuario de WordPress (WordPress MU) a partir de la cual se pueden crear plataformas como Rebuscando. INFO, Wordpress.com o CiberBlog.es o *Blog total.

Las herramientas que proporcionan alojamiento gratuito asignan al usuario una dirección web (por ejemplo, en el caso de Blogger, la dirección asignada termina en "blogspot.com"), y le proveen de una interfaz, a través de la cual se puede añadir y editar contenido. Obviamente, la funcionalidad de un blog creado con una de estas herramientas, se limita a lo que pueda ofrecer el proveedor del servicio, o hosting.

Un software que gestione el contenido, en tanto, requiere necesariamente de un servidor propio para ser instalado, del modo en que se hace en un sitio web tradicional. Su gran ventaja es que permite control total sobre la funcionalidad que ofrecerá el blog, posibilitando así adaptarlo totalmente a las necesidades del sitio, e incluso combinarlo con otros tipos de contenido.

Para tener mayor informacion, dar clic en el hipervinculo.
http://www.slideshare.net/telmoviteri/qu-es-y-para-qu-sirve-un-blog

investigacion de cuotas de disco, busquedas y ETC:

CUOTAS DE DISCO?

-El espacio del disco duro puede ser limitando mediante las llamadas cuotas de
disco (del inglés disk quotes). Mediante éstas se puede impedir la escritura o
alertar al administrador antes que los usuarios consuman demasiado espacio y
llenen el disco.

Para implementar las cuotas de disco, se realizan los pasos siguientes:

· Activar las cuotas en el sistema de archivos, modificando la tabla en
/etc/fstab.
· Re-Montar el sistema de archivos.
· Generar la base de datos para la información de las cuotas y generar las
tablas referentes al uso del disco
· Asignar las políticas de cuotas






MOTOR DE BUSQUEDA?

Un motor de búsqueda es un sistema informático que indexa archivos almacenados en servidores web. Un ejemplo son los buscadores de Internet (algunos buscan sólo en la Web pero otros buscan además en noticias, servicios como Gopher, FTP, etc.) cuando se pide información sobre algún tema. Las búsquedas se hacen con palabras clave o con árboles jerárquicos por temas; el resultado de la búsqueda es un listado de direcciones Web en los que se mencionan temas relacionados con las palabras clave buscadas. Se pueden clasificar en dos tipos:
Índices temáticos: Son sistemas de búsqueda por temas o categorías jerarquizados (aunque también suelen incluir sistemas de búsqueda por palabras clave). Se trata de bases de datos de direcciones Web elaboradas "manualmente", es decir, hay personas que se encargan de asignar cada página web a una categoría o tema determinado.
Motores de búsqueda: Son sistemas de búsqueda por palabras clave. Son bases de datos que incorporan automáticamente páginas web mediante "robots" de búsqueda en la red.
Como operan en forma automática, los motores de búsqueda contienen generalmente más información que los directorios. Sin embargo, estos últimos también han de construirse a partir de búsquedas (no automatizadas) o bien a partir de avisos dados por los creadores de páginas (lo cual puede ser muy limitante). Los buenos directorios combinan ambos sistemas.
Hoy en día el Internet se ha convertido en una herramienta, para la búsqueda de información, rápida, para ello han surgido los buscadores que son un motor de búsqueda que nos facilita encontrar información rápida de cualquier tema de interés, en cualquier área de las ciencias, y de cualquier parte del mundo.

BUSQUEDA AVANZADA?

Una búsqueda simple generalmente consta de un cuadro de texto para una simple cadena de caracteres, en cambio, las búsquedas avanzadas suelen contar con múltiples cuadros de texto, casilleros de verificación y otros elementos de formularios. Por lo general, estos elementos permiten aplicar filtros a la búsqueda básica, para obtener resultados más exactos.

BUSQUEDA SIMPLE?

La búsqueda simple (a la que se puede tener acceso desde la página principal de Documentos e informes) incluye los siguientes atributos del documento: país, sector, subsector, tipo de documento, fecha del documento, autor, título, número del informe, identificación del proyecto (formato = PO12345), y palabras clave del resumen. Para afinar la búsqueda, puede optar por buscar en "todas las palabras" (operador de intersección 'Y'), "cualquier palabra" (operador de intersección 'O'), "búsqueda boleana"* (permite ingresar 'Y' u 'O' en el cuadro de búsqueda), frase exacta (calzará con el orden exacto de las palabras) y términos relacionados. Generalmente, al usar "frase exacta" podrá encontrar un documento específico y obtendrá resultados mucho más exactos que con las demás alternativas

BUSQUEDA ESPECIALIZADA?

Los motores de busqueda especializada son recopilaciones de los recursos existentes sobre un tema especifico. Existen motores de busqueda especializados que permiten la localizacion de personas, de correo electronico, de paises, etc. La busqueda de imagenes sugiere la tecnica de diferentes al del resto de los temas especializados.




ERRAMIENTA DE EXPLORACION?


Actualmente el navegador más utilizado en el mundo es Internet Explorer en todas sus versiones, algunas empresas indican que esta ventaja se debe a que viene integrado con Windows, detrás de éste está el navegador de Mozilla Firefox, el cual se está popularizando cada vez más. Firefox es un competidor serio al producto de Microsoft. Existen también los navegadores Safari, Netscape Navigator, Opera y Chrome los cuales tienen un uso de menos del 2% en el mercado. Además existe Konqueror del proyecto KDE en GNU/Linux, y Epiphany el navegador oficial de Gnome.

archivo log




QUE ES AL ARCHIVO LOG?


-Los archivos logs registran todos los accesos a su alojamiento, guardando entre otras, información acerca de la IP desde la que se ha realizado la conexión, fecha, hora, archivos y/o página a la que se accede, etc.A partir de ellos, la herramienta de estadísticas (webaliazer) realiza sus gráficas.

-Si considera que el tamaño que ocupan es considerable, usted puede acceder en cualquier momento a su panel de control > sudominio > Administrar LOG > y eliminarlos o activar el servicio de rotación de logs para que se restauren automáticamente.

servidores protocolos y mas

PROTOCOLOS QUE SON?


es un conjunto de protocolos y estándares que sirven para intercambiar datos entre aplicaciones. Distintas aplicaciones de software desarrolladas en lenguajes de programación diferentes, y ejecutadas sobre cualquier plataforma, pueden utilizar los servicios web para intercambiar datos en redes de ordenadores como Internet. La interoperabilidad se consigue mediante la adopción de estándares abiertos. Las organizaciones OASIS y W3C son los comités responsables de la arquitectura y reglamentación de los servicios Web. Para mejorar la interoperabilidad entre distintas implementaciones de servicios Web se ha creado el organismo WS-I, encargado de desarrollar diversos perfiles para definir de manera más exhaustiva estos estándares.

QUE ES WWW?


Es un conjunto de servicios basados en hipermedios, ofrecidos en todo el mundo a través de Internet, se lo llama WWW (World Wide Web - Telaraña de Cobertura Mundial). No existe un centro que administre esta red de información, sino más bien está constituida por muchos servicios distintos que se conectan entre sí a través de referencias en los distintos documentos, por ejemplo, un documento contenido en un computador en Canadá, puede tener referencias a otro documento en Japón, o a un archivo en Inglaterra, o a una imagen en Suecia.
Al hablar de hipermedios nos referimos a información que puede presentarse utilizando distintos medios, como documentación ejecutable, de texto, gráficos, audio, vídeo, animación o imagen.
El WWW fue desarrollado inicialmente en el CERN (el Laboratorio Europeo de Física de Partículas) pero por su extrema flexibilidad ha cambiado mucho últimamente.
Cuando una persona ingresa al WWW lo hace mediante un programa "examinador" en general llamado Browser, y a partir de ése momento él esta en el Web.

QUE ES HTTP?

El servidor HTTP Apache es un servidor web HTTP de código abierto para plataformas Unix (BSD, GNU/Linux, etc.), Microsoft Windows, Macintosh y otras, que implementa el protocolo HTTP/1.1[1] y la noción de sitio virtual. Cuando comenzó su desarrollo en 1995 se basó inicialmente en código del popular NCSA HTTPd 1.3, pero más tarde fue reescrito por completo. Su nombre se debe a que Behelendorf quería que tuviese la connotación de algo que es firme y enérgico pero no agresivo, y la tribu Apache fue la última en rendirse al que pronto se convertiría en gobierno de EEUU, y en esos momentos la preocupación de su grupo era que llegasen las empresas y "civilizasen" el paisaje que habían creado los primeros ingenieros de internet. Además Apache consistía solamente en un conjunto de parches a aplicar al servidor de NCSA. Era, en inglés, a patchy server (un servidor "parcheado").

El servidor Apache se desarrolla dentro del proyecto HTTP Server (httpd) de la Apache Software Foundation.

Apache presenta entre otras características altamente configurables, bases de datos de autenticación y negociado de contenido, pero fue criticado por la falta de una interfaz gráfica que ayude en su configuración.

Apache tiene amplia aceptación en la red: desde 1996, Apache, es el servidor HTTP más usado. Alcanzó su máxima cuota de mercado en 2005 siendo el servidor empleado en el 70% de los sitios web en el mundo, sin embargo ha sufrido un descenso en su cuota de mercado en los últimos años. (Estadísticas históricas y de uso diario proporcionadas por Netcraft).

La mayoría de las vulnerabilidades de la seguridad descubiertas y resueltas tan sólo pueden ser aprovechadas por usuarios locales y no remotamente. Sin embargo, algunas se pueden accionar remotamente en ciertas situaciones, o explotar por los usuarios locales malévolos en las disposiciones de recibimiento compartidas que utilizan PHP como módulo de Apache.

Ventajas y desventajas
Las solución DSO proporcionada en Apache 1.3 tienen las siguientes ventajas:
El paquete del servidor es más flexible en tiempo de ejecución porque el proceso actual del servidor puede ser ensamblado en tiempo de ejecución por medio de LoadModule en httpd.conf en lugar de hacerlo por medio de la configuration en tiempo de compilación. De este modo se pueden arrancar diferentes instancias del servidor (estándar, versión SSL, mínima, versión potenciada [PHP, etc. ], etc.) con una única instalación de Apache.

El paquete del servidor puede ser fácilmente ampliado con módulos de terceros incluso después de la instalación. Esto representa un gran beneficio para los que mantienen paquetes, ya que les permite crear el paquete del núcleo de Apache y adicionalmente paquetes que contengan extensiones como PHP, mod_perl, mod_fastcgi, ...

Mayor facilidad en los prototipos de módulos Apache porque con DSO y apxs se puede trabajar fuera del árbol fuente de Apache y necesitar un único comando apxs -i seguido de un apachectl restart para cargar una nueva versión del módulo desarrollado en el servidor Apache que esté funcionando actualmente.
Pero como todo, también tiene algunos inconvenientes:

El mecanismo DSO no puede ser usado en todas las plataformas porque no todos los sistemas operativos soportan carga dinámica del código en el espacio de direcciones de un programa.

El servidor es aproximadamente un 20% más lento en su arranque debido a la sobrecarga que la resolución representa para el cargador (loader).

El servidor es aproximadamente un 5% más lento en su ejecución bajo algunas plataformas porque el PIC (Position Independent Code, posición de código independiente) necesita maniobras complicadas para direccionamiento dinámico, que no es necesariamente tan rápido como el direccionamiento absoluto.

No se puede usar DSO para todo tipo de módulos, debido a que los módulos DSO no pueden ser enlazados con otras bibliotecas basadas en DSO (ld -lfoo) en todas las plataformasB.4. En otras palabras, los módulos compilados como ficheros DSO están restringidos a utilizar sólo símbolos del núcleo de Apache, de las biblioteca C (libc ) y todas las demás bibliotecas dinámicas o simbólicas usadas por el núcleo de Apache o desde archivos de bibliotecas estáticas (libfoo.a ) que contengan PIC. La única ocasión de usar otro código es, o bien asegurarse de que el núcleo de Apache ya contenga una referencia a él, cargando uno mismo el código por medio de dlopen() , o bien habilitando la regla SHARED_CHAIN cuando se compila Apache y la plataforma soporta el enlace de ficheros DSO contra bibliotecas DSO.

Bajo algunas plataformas (varios sistemas SVR4) no hay forma de forzar al enlazador para que exporte todos los símbolos globales cuando se enlaza el programa ejecutable httpd. Pero sin la visibilidad de los símbolos del núcleo de Apache, ningún módulo estándar de Apache podría ser usado como DSO. La única posible solución es compilar el sistema con la opción SHARED_CORE porque de este modo los símbolos globales se fuerzan a ser exportados.



QUE ES HTTPS?

El protocolo HTTPS es la versión segura del protocolo HTTP. El sistema HTTPS utiliza un cifrado basado en las Secure Socket Layers (SSL) para crear un canal cifrado (cuyo nivel de cifrado depende del servidor remoto y del navegador utilizado por el cliente) más apropiado para el tráfico de información sensible que el protocolo HTTP.
QUE ES SSI?


SSI es acrónimo del inglés Small-Scale Integration (integración a baja escala) y hace referencia a los primeros circuitos integrados que se desarrollaron. Cumplían funciones muy básicas, como puertas lógicas y abarcan desde unos pocos transistores hasta una centena de ellos.

Los circuitos SSI fueron cruciales en los primeros proyectos aerospaciales, y viceversa, ya que los programas espaciales como Apollo o el misil Minuteman necesitaban dispositivos digitales ligeros. El primero motivó y guió el desarrollo de la tecnología de circuitos integrados, mientras que el segundo hizo que se realizara una producción masiva.

Estos programas compraron prácticamente la totalidad de los circuitos integrados desde 1960 a 1963, y fueron los causantes de la fuerte demanda que originó un descenso de los precios en la producción de 1000 dólares la unidad (en dólares de 1960) hasta apenas 25 dólares la unidad (en dólares de 1963).

El siguiente paso en el desarrollo de los circuitos integrados, que tuvo lugar a finales de los 60, introdujo dispositivos que contenían cientos de transistores en cada chip y fue llamado MSI: Escala de Media Integración (Medium-Scale Integration).


QUE ES DNS?


Domain Name System (o DNS, en español: sistema de nombre de dominio) es un sistema de nomenclatura jerárquica para computadoras, servicios o cualquier recurso conectado al internet o a una red privada. Este sistema asocia información variada con nombres de dominios asignado a cada uno de los participantes.

El DNS es una base de datos distribuida y jerárquica que almacena información asociada a nombres de dominio en redes como Internet. Aunque como base de datos el DNS es capaz de asociar diferentes tipos de información a cada nombre, los usos más comunes son la asignación de nombres de dominio a direcciones IP y la localización de los servidores de correo electrónico de cada dominio.

La asignación de nombres a direcciones IP es ciertamente la función más conocida de los protocolos DNS. Por ejemplo, si la dirección IP del sitio FTP de prox.mx es 200.64.128.4, la mayoría de la gente llega a este equipo especificando ftp.prox.mx y no la dirección IP. Además de ser más fácil de recordar, el nombre es más fiable. La dirección numérica podría cambiar por muchas razones, sin que tenga que cambiar el nombre.

Inicialmente, el DNS nació de la necesidad de recordar fácilmente los nombres de todos los servidores conectados a Internet. En un inicio, SRI (ahora SRI International) alojaba un archivo llamado HOSTS que contenía todos los nombres de dominio conocidos (técnicamente, este archivo aún existe - la mayoría de los sistemas operativos actuales todavía pueden ser configurados para revisar su archivo hosts). El crecimiento explosivo de la red causó que el sistema de nombres centralizado en el archivo hosts no resultara práctico y en 1983, Paul Mockapetris publicó los RFCs 882 y 883 definiendo lo que hoy en día ha evolucionado hacia el DNS moderno. (Estos RFCs han quedado obsoletos por la publicación en 1987 de los RFCs 1034 y 1035).

Componentes
Para la operación práctica del sistema DNS se utilizan tres componentes principales:

Los Clientes DNS: Un programa cliente DNS que se ejecuta en la computadora del usuario y que genera peticiones DNS de resolución de nombres a un servidor DNS (Por ejemplo: ¿Qué dirección IP corresponde a nombre.dominio?);
Los Servidores DNS: Que contestan las peticiones de los clientes. Los servidores recursivos tienen la capacidad de reenviar la petición a otro servidor si no disponen de la dirección solicitada.
Y las Zonas de autoridad, porciones del espacio de nombres de dominio que almacenan los datos. Cada zona de autoridad abarca al menos un dominio y posiblemente sus subdominios, si estos últimos no son delegados a otras zonas de autoridad.
Entendiendo las partes de un nombre de dominio
Un nombre de dominio usualmente consiste en dos o más partes (técnicamente etiquetas), separadas por puntos cuando se las escribe en forma de texto. Por ejemplo, www.mohamedalid.org o es.Wikipedia.org

Para saber un poco mas sobre http dar clic en el hipervinculo.

http://neo.lcc.uma.es/evirtual/cdd/tutorial/aplicacion/http.html


QUE ES LA INTERNET?

La Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.


QUE SERVICIOS OFRESE LA INTERNET?



Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión.

Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.



HISTORIA DE LA INTERNET?


En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.

1969. La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:

A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet Society, A Brief History of the Internet)
1972. Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.

1983. El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.

1986. La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet.

1989. Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.

En el CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web.

2006. El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2.000 millones.[4]