Quantcast
Channel: General - Linux Adictos
Viewing all 6322 articles
Browse latest View live

Oracle despide a 900 personas en China. Se producen protestas

$
0
0
El cierre del centro de investigación y desarrollo en un medio de CHina

Un portal de negocios chino informó la noticia de los despidos.

De acuerdo a un medio de comunicación de ese país, Oracle cerrará un centro de investigación y desarrollo en China. Esto, sumado al de otros sectores, provocará el despido de más de 900 personas. La publicación cita como fuente al director de recursos humanos de Oracle para Asia y el Pacífico. Aunque todavía nadie de la empresa se expidió sobre el tema.

La información pudo ser confirmada por otros medios de comunicación chinos quienes pudieron hablar con empleados de Oracle y personas familiarizadas con la situación. Entre las personas afectadas por los despidos, 500 son del centro de I+D de Oracle en Pekín. Esto equivale a poco más del 30% del personal dedicado a la investigación que la empresa tiene en el país asiático. No se conoce a que sector corresponden los otros 400.

La empresa ofreció un plan de retiros voluntarios equivalente a seis salarios por año trabajado a quienes acepten renunciar antes del 22 de mayo. Pero, según las redes sociales, la propuesta no parece haber sido bien recibida por los despedidos. Muchos empleados afectados por los planes de despido se han reunido para protestar por la retirada de Oracle de China. Utilizaban consignas como “Altas ganancias, ¿por qué todavía hay despidos?”. o “Dejen la política fuera de la tecnología”.

Más despidos en Estados Unidos

Sin embargo, el conflicto comercial entre China y los Estados Unidos, no parece ser la causa del problema. Oracle también tiene previsto despidos en los de Estados Unidos. En marzo anució que se desprendería de más de 350 personas de su centro de I+D estadounidense.

En aquel momento, un portavoz afirmó:

A medida que nuestro negocio de nube crece, equilibraremos continuamente nuestros recursos y reestructuraremos nuestro grupo de desarrollo para ayudar a asegurarnos de que contamos con las personas adecuadas para ofrecer los mejores productos de nube a nuestros clientes de todo el mundo”.

La empresa estadounidense opera en China hace dos décadas, posee 14 sucursales, cinco centros de I+D y cuenta con casi 5.000 empleados en el país. Su división Asia Pacífico representa alrededor del 16% de los ingresos totales de la compañía. Sin embargo, en un mercado dominado por Alibaba Cloud, Tencent Cloud, China Telecom y AWS, sigue siendo un jugador pequeño.

El artículo Oracle despide a 900 personas en China. Se producen protestas ha sido originalmente publicado en Linux Adictos.


KDE Partition Manager, el editor de particiones de KDE llega con nueva versión 4.0

$
0
0

kdepartitionmanager

Los editores de particiones sin dudas son una pieza fundamental de software para cualquier sistema operativo destinado a ordenadores ya sean servidores, de escritorio o portátiles, ya que el uso de estos es primordial para el manejo de nuestros medios de almacenamiento e incluso para la instalación del sistema operativo.

Un editor de particiones es una utilidad diseñada para ver, crear, alterar y borrar particiones de disco en un dispositivo de almacenamiento, ya sean discos duros, memorias USB u otros sistemas de almacenamiento.

Existen diversos editores de particiones para los diferentes sistemas operativos actuales, cada uno con sus propias características añadidas a las fundamentales (ver, crear, alterar y borrar particiones).

Para el caso de Linux contamos con editores de particiones muy potentes que pueden ser utilizados desde una interfaz grafica de usuario (GUI) o incluso manejados desde la terminal (CLI).

Por mencionar a alguno de los más populares tal es el ejemplo de gparted (GUI) o para el caso de uso en la terminal tenemos a fdisk o cfdisk (CLI).

Es por ello que en esta ocasión hablaremos sobre un excelente editor de particiones para el entorno de escritorio KDE.

Sobre KDE Partition Manager

KDE Partition Manager usa componentes fundamentales del entorno de escritorio KDE y este es publicado independientemente del ciclo central de KDE. Utiliza la biblioteca GNU Parted.

Este editor de particiones está escrito en el lenguaje de programación C++ y usa las bibliotecas Qt. Publicado bajo la licencia GNU General Public License,.

Es usado para crear, borrar, comprobar, redimensionar y copiar particiones y los sistemas de archivos en ellas.

Esto es útil para crear, en un disco, espacio para nuevos sistemas operativos, reorganizar el uso de disco, copiar datos que estaban en un disco duro y hacer una “copia espejo” de una partición en otra.

Adicionalmente, KDE Partition Manager puede hacer copias de seguridad de sistemas de archivos y restaurar dichas copias.

Sobre la nueva versión KDE Partition Manager 4.0

Después de aproximadamente un año y medio de desarrollo, KDE Partition Manager ha alcanzado la versión 4.0. Como punto culminante de la nueva versión, los desarrolladores llaman al uso de los Frameworks de Kauth.

En esta nueva versión ya no es necesario ejecutar la GUI como root. La GUI como usuario sin privilegios también funciona en Wayland dice en el anuncio.

En el curso de la conversión a Kauth, también se ha portado el backend KPMcore de libparted a sfdis.

Y el código SMART se ha portado desde libatasmart no mantenido en Smartmontools. Los dos ports ayudan a KPMcore y KDE Partition Manager a una mayor portabilidad, dicen. En un futuro cercano, por lo tanto, también puede haber un puerto para FreeBSD.

Otras características nuevas incluyen soporte mejorado para LUKS2.

Los contenedores LUKS2 ahora pueden redimensionarse, siempre que no usen características especiales.

En el momento en que KDE Partition Manager aún crea particiones encriptadas LUKS1 (la creación de LUKS2 no está expuesta en la GUI) pero KPMcore tiene un código para crear particiones encriptadas LUKS2, por lo que otros usuarios de la biblioteca KPMcore (como el instalador de Calamares ) podrán implementar la creación de LUKS2 usando KPMcore 4.0.

Los desarrolladores incluyen en el anuncio todavía correcciones de errores y un uso extendido de las características modernas de C ++.

Además, se han mejorado las particiones encriptadas LUKS2, se ha agregado la detección del sistema

de archivos APFS y Bitlocker y se han solucionado muchos problemas, especialmente en el soporte de LVM.

El código fuente, incluyendo todas las confirmaciones, se puede encontrar en el Proyecto KDE de GitLab: KPMCore , Administrador de particiones.

Instalación

KDE Partition Manager es una aplicación KF5, por lo que necesitará las bibliotecas de marcos de KDE.

La mayoría de los sistemas operativos modernos los instalarán como dependencias, por lo que su instalación es sencilla.

Para Debian, Ubuntu y derivados en una terminal tienen que teclear el siguiente comando:

sudo apt install partitionmanager

En el caso de CentOS, Fedora, RHEL y derivados:

sudo yum install kde-partitionmanager

Para cualquier versión de OpenSUSE:

sudo zypper install partitionmanager

En el caso de Arch Linux y derivados:

sudo pacman -Sy partitionmanager

El artículo KDE Partition Manager, el editor de particiones de KDE llega con nueva versión 4.0 ha sido originalmente publicado en Linux Adictos.

Jim Whitehurst comenta cómo el código abierto aumenta nuestras posibilidades

$
0
0

Jim Whitehurst CEO de Red Hat

En el encuentro Red Hat Summit, el CEO de Red Hat Jim Whitehurst ha comentado cómo el código abierto aumenta nuestras posibilidades. Los proyectos de código abierto son muchos y todos conocemos sus ventajas y las mejoras que nos aportan a nuestras vidas y eso es lo que ha venido a cerciorar Jim:

Es fascinante ver cómo el mundo sigue cambiando a nuestro alrededor. Y parece que los cambios se producen más rápido que nunca. Nuestro Red Hat Summit se ha convertido en una especie de foro en el que puedo pulsar el botón de pausa y reflexionar sobre lo lejos que hemos llegado y a dónde queremos ir.”

Al repasar los temas que he tratado en los últimos años, ahora veo cómo hemos estado siguiendo la evolución en la forma en que trabaja la gente. Hace tres años, por ejemplo, hablé sobre el poder de la participación: cómo las personas que trabajan en equipo de una forma abierta y transparente son más competentes a la hora de resolver problemas. Luego, hace dos años, me centré en el impacto del individuo, la participación en el código abierto como un deporte activo donde los individuos necesitan tmar la iniciativa. Y el año pasado, compartí mi percepción de que necesitamos replantear cómo trabajamos en una era de disrupción.“.

Desde mi punto de vista actual, me sorprende que estemos en la cúspide de otro cambio disruptivo, lo llamaría un ‘movimiento’ a partir de ahora, que abrirá todo tipo de posibilidades para que nuestra sociedad pueda crecer y evolucionar en el futuro. Pero para apreciar el tipo de impacto que provocará este cambio, primero tenemos que volver la mirada atrás para reconocer que la gente solía trabajar y vivir de manera muy diferente a como lo hacemos hoy en día. No es la primera vez que un cambio en nuestra forma de pensar y de trabajar ha conducido a una explosión de progreso.“.

Jim ha puesto especial atención en varios puntos que certifican esto:

Repensar nuestros límites:

“Hace medio milenio, antes de creer en la ciencia y la racionalidad y en el proceso -antes de la revolución científica- no se nos permitía hacer preguntas ni debatir lo que significaba el mundo y cómo se comportaba.

Entonces comenzó un cambio radical en la forma en que adquiríamos el conocimiento del mundo que nos rodeaba. El Método Científico surgió, gracias a individuos cuya curiosidad no pudo ser contenida. Valientes pioneros como Galileo, que dudaba de lo que se le había dicho por lo que podía ver en el cielo nocturno, aunque esta duda le llevara a la prisión o incluso a la muerte, empezaron a cuestionar el mundo que los rodeaba.

Cuantas más personas cuestionaban lo que veían, mejor y más profundas se volvían sus preguntas. Como resultado, pasamos de un mundo en el que creíamos lo que nos decían las altas autoridades a un mundo en el que las conclusiones se basaban en la observación y la experimentación. Como Sir Francis Bacon, a quien a menudo se le atribuye el mérito de ser el padre del Método Científico, lo expresó de manera tan acertada: “Si un hombre empieza con certezas, seguramente acabe con dudas. Pero si estamos dispuestos a empezar con dudas, puede que acabemos con certezas”.

En el corazón del Método Científico se encuentra la insaciable curiosidad sobre el mundo que nos rodea. Es una metodología para preguntar por qué las cosas funcionan de la manera en que lo hacen, y luego aprender a través de la experimentación y el ensayo y el error. Es un cambio del razonamiento deductivo al inductivo, del pensamiento de arriba hacia abajo al pensamiento de abajo hacia arriba. Se trata de la libertad de explorar lo que podría ser posible, más allá de los límites que cualquier autoridad superior podría tratar de imponer.

El impacto en el mundo que nos rodea:

Adoptar este tipo de metodología empírica cambió la forma de entender casi todo lo que hacíamos y veíamos. Y cambió nuestra forma de pensar, una forma de pensar que estimuló los movimientos innovadores que crearon el mundo moderno.

Cuando nos dimos cuenta de que la Tierra no era el centro del universo, entramos en la Ilustración, que introdujo nuevas ideas como la libertad individual, el gobierno constitucional y la tolerancia religiosa. La nueva determinación de los inventores de tecnologías clave como la máquina de vapor, el telégrafo y el proceso de Bessemer para la producción de acero nos llevó a la Revolución Industrial. El aprendizaje de la teoría anatómica -desde la teoría de los gérmenes hasta las técnicas quirúrgicas avanzadas- produjo una Revolución Médica que ha transformado nuestra comprensión fundamental de las enfermedades y de nuestros cuerpos.

Todos estos avances fueron el resultado de un aprendizaje que tuvo lugar gracias a las continuas preguntas que se hacían y a aquellos que intentaban buscar las respuestas.

La ciencia del descubrimiento continúa hoy en día, incluso en el mundo del software de código abierto. Los principios de curiosidad, colaboración, meritocracia e independencia son la base de la metodología empírica y del estilo del código abierto. Lo sabemos porque vivimos de acuerdo a esos valores todos los días entro de la cultura interna de Red Hat. Y es por ello por lo que podemos desarrollar una arquitectura moderna que está desbloqueando el potencial de los desarrolladores y las empresas para continuar creciendo en esta época de cambio.

Y como con Bacon y sus contemporáneos, no viajamos solos por este camino. Miles de pioneros y comunidades del código abierto han llevado al código abierto más allá de los límites percibidos.

El código abierto se ha convertido en algo más que una metodología para crear software. Se ha convertido en una filosofía, un conjunto de creencias. El código abierto, y el estilo del código abierto, han llegado a significar un pensamiento más allá de los límites y supone explorar un mundo con infinitas posibilidades.

Un movimiento transformador:

Al adoptar el estilo del código abierto, nuestra comunidad ha ayudado a la transformación de tecnologías como Linux para hacer la vida más fácil. Nuestra comunidad ha cambiado también “la tecnología humana”, es decir, la forma en la que interactuamos y solucionamos problemas de forma conjunta. El código abierto se ha convertido en la siguiente oleada de cómo generamos innovaciones genuinas con impacto.

Cada vez más, muchas personas reconocen que el código abierto ofrece una mejor forma de trabajo. El código abierto como tecnología humana está irrumpiendo en lo convencional. Empresas, gobiernos y organizaciones sin ánimo de lucro de todo el mundo están adoptándolo.

Creo que el código abierto ha entrado en una nueva era y se está convirtiendo en un movimiento transformador. Ahora mismo hay mucha gente preguntando cosas como: ¿Cómo imaginamos y hacemos realidad el potencial que esta tecnología ha creado para nosotros? ¿Cómo lo hacemos como individuos? ¿Y cómo equipo? ¿Y cómo empresa y, en última instancia, cómo sociedad.

Todavía no conocemos las respuestas a todas estas preguntas, pero con experimentación y colaboración seguiremos avanzando hacia ellas. Solo si continuamos haciéndonos preguntas, podremos seguir aumentando nuestras posibilidades hoy, mañana y en el futuro.

Te invito a que te unas a nosotros y empieces a soñar en grande y a preguntarte, junto con nosotros, qué podemos hacer a continuación, juntos”.

El artículo Jim Whitehurst comenta cómo el código abierto aumenta nuestras posibilidades ha sido originalmente publicado en Linux Adictos.

Google lanza portal una propuesta de para reemplazar iframe

$
0
0

portal

Los anuncios hechos por Google desde el inicio de la conferencia I / O 2019 son muchos y variados. Google ha agregado la navegación privada a Google Maps y YouTube para proteger la privacidad, la familia Pixel ha crecido con dos nuevos productos y el asistente de Google Duplex está en línea.

Aún en el caso de la web, Google ha anunciado la llegada de una nueva tecnología. Según Google, esta es una nueva API de plataforma web llamada<portal> (Portales) que apunta a facilitar la carga y navegación de las páginas web al agilizar la experiencia de navegación de los usuarios en su sitio.

Artículo relacionado:
Ya fue liberada la beta de Android Studio 3.5 y estos son sus cambios

Google siempre ha dicho que existe un fuerte deseo por parte de sus desarrolladores de mejorar la navegación web, que incluye una navegación más rápida y fluida y transiciones de páginas más atractivas.

Tal es el caso de AMP ha activado muchas de estas propiedades, aun que también tiene varias restricciones importantes, como mantener a los usuarios en el origen del caché de AMP.

“Esperamos que la API de Portals pueda abordar algunas de estas inquietudes al tiempo que ofrece otra característica potente para los desarrolladores web”, escribió Google en un documento explicativo para el proyecto.

De igual forma podemos recordar la iniciativa que tiene google de eliminar las URL ya que google sintió que las direcciones web tradicionales o las URL deberían desaparecer por el bien de Internet y tal parece que la compañía estadounidense ya ha hecho su primera en la realización de este proyecto.

Artículo relacionado:
Google pretende eliminar las URL en la web por el bien de todos

Sobre <portal>

De acuerdo con la descripción de Google de la tecnología, la API de <portal> se creó para permitir una navegación sin problemas entre sitios o páginas.

En particular, esto permitirá que una página muestre otra página como un espacio y una transición suave entre un estado de inserción y un estado atravesado.

En otras palabras, continúa explicando Google, el propósito de la tecnología <portal> es mejorar la navegación al proporcionar transiciones más rápidas y suaves en la Web, mientras se mantiene la privacidad del usuario.

La compañía dijo que el uso de la API de <portal> se realizará a través de nuevas etiquetas propuestas de html.

Estas nuevas etiquetas, según un experto en Google, pueden reemplazar en el futuro a la ya conocida etiqueta <iframe> que ahora son el estándar para incrustar contenido o incrustar páginas web entre sí.

<iframe> ya debe jubilarse por el bien de una mejor navegación web 

Para el gigante de la búsqueda, las etiquetas <iframe> tienen enormes desventajas.

“Antes de las etiquetas <portals>, podríamos haber hecho otra página usando un <iframe>. También podríamos haber agregado animaciones para mover fotogramas en páginas dadas.

Pero con una etiqueta <iframe>, no tiene la capacidad de explorar su contenido. Las etiquetas <portals> llenan este vacío, lo que permite casos de uso interesantes “, dijo Google.

Su marco de uso va aún más lejos para facilitar la creación de aplicaciones de una sola página (SPA) o aplicaciones de múltiples páginas (MPA).

El artículo en la presentación de la tecnología establece que las etiquetas <portals> ofrecen lo mejor de ambos mundos:

La baja complejidad de un AMP con las transiciones transparentes de un SPA. Piensa en ellos como una herramienta <iframe> que permite la integración, pero a diferencia de <iframe>, también tienen características para navegar a su contenido, explicó Google.

Otra cosa importante que se debe saber es que las etiquetas <portals> se pueden usar en la navegación cruzada como una etiqueta <iframe>.

Por ejemplo, si se tienen varios sitios web que hacen referencia, también puede usar la API de Portals para crear una navegación perfecta entre dos sitios web diferentes.

Este caso de uso de origen cruzado es muy específico de las etiquetas <portals> e incluso puede mejorar la experiencia del usuario de los SPA.

Por ahora, solo Chrome Canary soporta esta tecnología. Sin embargo, Google espera que en el futuro que todos los navegadores web (y no solo los basados en Chrome) admitan la API de Portals para un uso más mejorado y optimizado de la Web.

Fuente: https://web.dev/

El artículo Google lanza portal una propuesta de para reemplazar iframe ha sido originalmente publicado en Linux Adictos.

Red Hat Openshift 4: redefiniendo los kubernetes empresariales mediante automatización full stack

$
0
0

Openshift logo

El próximo mes tendremos disponible Red Hat OpenShift 4, la última versión de la plataforma empresarial de Kubernetes más completa. Red Hat es líder mundial en soluciones de código abierto para el mundo empresarial y prueba de ello es este lanzamiento. La nueva versión pone de manifiesto un rediseño para abordar las complejas realidades de la orquestación de contendores en los sistemas de producción. Ha sido diseñada para ofrecer una experiencia similar a la de la nube a través de la nube híbrida mediante actualizaciones automatizadas en todos los despliegues de Kubernetes.

OpenShift ofrece mayor flexibilidad para los desarrolladores y el respaldo de Kubernetes Operators para establecerse como una base más segura y coherente para las cargas de trabajo modernas y emergentes nativas de la nube. Ya es usada por más de 1000 organizaciones de todo el mundo y de multitud de sectores diferentes, empresas como Santander,Kohl’s, BP, Deutsche Bank, Emirates NBD, HCA Healthcare, etc.

Simplificación y automatización en todas partes:

OpenShift 4 simplificará los despliegues híbridos y multicloud (según IDC, para 2020, más del 90% de las organizaciones tendrán implementada una estrategia multicloud) para acelerar la manera en que las organizaciones de TI despliegan nuevas aplicaciones, ayudando a las empresas a prosperar y diferenciarse en un mercado cada vez más competitivo. Esa simplificación y automatización tienen algunos puntos clave:

  • Plataforma autogestionable para la nube híbrida que proporciona una experiencia similar a la nube mediante actualizaciones automáticas de software y gestión del ciclo de vida en toda la nube híbrida, impulsada por la base de confianza de Red Hat Enterprise Linux y Red Hat Enterprise Linux CoreOS. Esto permite una mayor seguridad, auditabilidad, repetibilidad, facilidad de gestión y experiencia del usuario.
  • Adaptabilidad y soporte heterogéneo, disponible en los próximos meses en los principales proveedores de nube pública, incluyendo Alibaba, Amazon Web Services (AWS), Google Cloud, IBM Cloud, Microsoft Azure, tecnologías de nube privada como OpenStack, plataformas de virtualización y servidores bare-metal.
  • La instalación optimizada full stack con un proceso automatizado que facilita la puesta en marcha rápida de Kubernetes para empresas.
  • Despliegues de aplicaciones simplificadas y gestión del ciclo de vida con Kubernetes Operators. Red Hat ha sido el pionero en aplicaciones stateful y complejas en Kubernetes con operadores que automatizan el mantenimiento, el escalado y la conmutación por error de las aplicaciones. Ahora OpenShift 4 ofrece Red Hat OpenShift Certified Operators. Trabajando en conjunto con el ecosistema de partners más amplio, OpenShift 4 incluye un amplio conjunto de aplicaciones para ejecutarse as-a-service a través de la nube híbrida.

Acreditado Kubernetes empresarial:

Red Hat OpenShift Container Platform está certificada, conforme a Kubernetes, y validada por la Cloud Native Computing Foundation (CNCF). Es la única oferta empresarial de Kubernetes desarrollada sobre la columna vertebral de la plataforma Linux empresarial líder en el mundo, respaldada por la experiencia en código abierto, el ecosistema compatible y el liderazgo de Red Hat. Como uno de los principales contribuyentes de la comunidad de Kubernetes, Red Hat perfecciona Kubernetes para empresas en OpenShift 4, proporcionando una base de código más sólida y segura, a la vez que conserva las innovaciones clave de las comunidades de origen.

Para proporcionar un footprint de despliegue más flexible y al mismo tiempo mantener una mejor seguridad y estabilidad, OpenShift 4 presenta Red Hat Enterprise Linux CoreOS, una variante incrustada específica de OpenShift de Red Hat Enterprise Linux. Red Hat Enterprise Linux CoreOS proporciona una mayor variedad de opciones para las empresas en el despliegue de Kubernetes de nivel empresarial, ofreciendo una distribución de SO Linux ligera, completamente inmutable y optimizada para contenedores. En esta variante, las características de seguridad y la estabilidad siguen siendo primordiales, con actualizaciones automáticas gestionadas por Kubernetes y habilitadas por OpenShift con sólo pulsar un botón. Esto ayuda a reducir el mantenimiento y a mejorar la productividad del negocio.

OpenShift 4 está respaldado por el galardonado servicio de asistencia técnica y los amplios servicios profesionales de Red Hat, incluido Red Hat Consulting. Con su experiencia técnica y su asesoramiento y análisis estratégicos, Red Hat ayuda a las organizaciones de TI a crear soluciones que satisfagan las necesidades actuales y futuras.

Empoderando a los desarrolladores para innova:

El desarrollo de aplicaciones es imperativo para muchas organizaciones de TI, dado su papel en la aceleración de la transformación digital. OpenShift 4 soporta las necesidades cambiantes del desarrollo de aplicaciones como una plataforma consistente para optimizar la productividad de los desarrolladores con:

  • Servicios de automatización, aplicaciones y autoservicio para ayudar a los desarrolladores a ampliar sus aplicaciones mediante el aprovisionamiento bajo demanda de servicios de aplicaciones y la provisión de automatización para el desarrollo y despliegue de aplicaciones en contenedores respaldadas por operadores.
  • Red Hat CodeReady Workspaces permiten a los desarrolladores aprovechar la potencia de los contenedores y Kubernetes, a la vez que trabajan con herramientas conocidas de entornos de desarrollo integrado (IDE) que utilizan a diario. CodeReady Workspaces son más coherentes, colaborativos y protegidos que cuando se ejecutan contenedores o máquinas virtuales (VM) en un portátil. Esto incluye las herramientas y dependencias necesarias para codificar, construir, probar, ejecutar y depurar aplicaciones contenedorizadas en un IDE basado en web.
  • OpenShift Service Mesh, que combina los proyectos de Istio, Jaeger y Kiali como una capacidad única que codifica la lógica de comunicación para arquitecturas de aplicaciones basadas en microservicios, liberando a los equipos de desarrolladores para que se centren en el business-add logic.
  • Knative para crear aplicaciones serverless en Developer Preview, lo que convierte a Kubernetes en una plataforma ideal para desarrollar, desplegar y gestionar cargas de trabajo serverless o function-as-a-service (FaaS). Las características Knative incluyen scale-to-zero, autoescalado, desarrollo de in-clusters y eventing frameworks para el desarrollo de aplicaciones nativas de nube en Kubernetes. Permite a los desarrolladores centrarse en escribir código ocultando partes complejas del desarrollo, desplegando y gestionando sus aplicaciones.
  • KEDA (Kubernetes-based event-driven autoscaling), una colaboración entre Microsoft y Red Hat que soporta el despliegue de contenedores serverless event-driven en Kubernetes, permitiendo Azure Functions en OpenShift, en Developer Preview. Esto permite el desarrollo acelerado de funciones serverless y event-driven en la nube híbrida y las instalaciones locales con Red Hat OpenShift.
  • Entornos de aplicaciones habilitados para operadores en OpenShift con Red Hat Middleware, proporcionando la potencia de OpenShift Certified Operators a las tecnologías de integración crítica y la automatización de procesos. Esto permite a las organizaciones de TI unificar sus entornos de desarrollo en torno a las capacidades de los operadores, lo que facilita a los desarrolladores centrarse exclusivamente en la prestación de servicios y aplicaciones de última generación sin tener que preocuparse por la actualización o el mantenimiento de las herramientas.
  • Red Hat OpenShift Container Storage 4 habilitado para operadores, actualmente en desarrollo. Ofrece almacenamiento persistente altamente escalable para aplicaciones nativas de la nube que requieren características como cifrado, replicación y disponibilidad en toda la nube híbrida. Los equipos de aplicaciones pueden aprovisionar dinámicamente volúmenes persistentes para una amplia variedad de categorías de carga de trabajo, incluyendo bases de datos SQL/NoSQL, CI/CD pipelines y AI/ML.

Red Hat continúa creciendo e imparable…

El artículo Red Hat Openshift 4: redefiniendo los kubernetes empresariales mediante automatización full stack ha sido originalmente publicado en Linux Adictos.

Lo que sabe Microsoft de nosotros cuando usamos Office

$
0
0
Microsoft sabe de nosotros nuestras faltas de ortografía

Microsoft envía datos a la nube para entre otras cosas mejorar su corrector ortográfico.

Microsoft Office sigue siendo la suite ofimática más usada, sobre todo en el ámbito corporativo. Eso hace que muchos no tengan otra alternativa que usarla.Y ahora que su configuración de privacidad por defecto cambió, que envíen datos Veamos qué es lo que sabe Microsoft de nosotros cuando usamos sus herramientas.

A decir verdad, Microsoft avisó de esos cambios que afectan a las versiones a partir de la compilación 1904. Un asistente te informa de por qué se recopilan esos datos. Solo tienes que pulsar Aceptar. O, hacer lo que nadie hace, tomarte la molestia de leer la documentación.

No te preocupes, nosotros lo hicimos por ti.

Quiero aclarar que no soy Stallman. Uso los productos de Microsoft y entiendo que dar esos datos es el precio por una mejor experiencia de uso. Lo que me parece mal es que la configuración de menos privacidad venga configurada por defecto. Tampoco es demasiado intuitivo el encontrar como modificarla si una cambió de idea posteriormente. Por las dudas, los planes para entrar en la Casa Blanca, robar los códigos de los misiles nucleares y lanzarlos contra los blogs de la competencia, los escribí en Vim.

Pero, ¿Qué sabe Microsoft de nosotros?

Cuando iniciamos por primera vez alguna de las aplicaciones de la suite ofimática, o abrimos el asistente de configuración de privacidad nos encontramoss con el siguiente mensaje:

“Cuando usted confía sus datos a Office, sigue siendo el propietario de los mismos. Es nuestra política no usar, o dejar que otros lo usen, con fines publicitarios”.

“Hemos actualizado la configuración de privacidad de Office para que sepa qué datos recopilamos y cómo los utilizamos”

Podemos dividir los datos en dos tipos:

  • Datos de diagnóstico.
  • Datos de experiencias conectadas

Los datos de diagnóstico

Según Microsoft, estos datos se recopilan para encontrar y corregir problemas, identificar y mitigar amenazas, y mejorar su experiencia. Estos datos no incluyen su nombre o dirección de correo electrónico, el contenido de los archivos ni información sobre las aplicaciones que no estén relacionadas con Office.

Hay dos tipos de datos de diagnósticos:

  • Datos de recopilación obligatoria: Ayudan a identificar problemas con Office que pueden estar relacionados con la configuración de un dispositivo o software. Por ejemplo, puede ayudar a determinar si una característica de Office se bloquea con más frecuencia en una versión particular del sistema operativo, con características recientemente introducidas, o cuando ciertas características de Office están deshabilitadas.
  • Datos de recopilación opcional: Si el usuario decide autorizar a Microsoft a recopilarlos, brindará información más completa sobre el uso de los programas. Algunos ejemplos de datos de diagnóstico opcionales incluyen datos que recopilamos sobre las imágenes que los usuarios insertan en los documentos de Word para poder ofrecer mejores opciones de imagen, o datos sobre el tiempo que tarda una diapositiva de PowerPoint en aparecer en pantalla.

Datos para experiencias conectadas

Las experiencias conectadas implican dos tipos de servicios:

  • Interacción del contenido local con los servicios en la nube de Microsoft.
  • Descarga de contenidos desde los servidores de Microsoft para usar localmente.

El primer tipo de experiencia incluye el análisis de textos para encontrar errores ortográficos, la traducción a otros idiomas o la conversión de páginas web. También puede transmitirse las presentaciones de Powerpoint a usuarios remotos o transformarlas en video.  En el caso de Excel poYo uso batante software privativo porque me resulta más útil el tiempo que me ahorran sus prestaciones que la libertad de poder leer y modificar el cósigo. dremos crear datos o pedirle a los servidores de Microsoft que detecten tendencias.

En cuanto al segundo tipo de experiencias, se refiere a la posibilidad de descargar tipografías, iconos, gráficos y modelos 3d. También podemos insertar contenidos de otros servicios como videos y formularios.

Alternativas para disminuir lo que sabe Microsoft de nosotros

Microsoft no es la misma empresa de hace 15 años, y Satya Nadella no es Steve Ballmer. Tampoco el mercado es el mismo.

Para empezar, a Microsoft ya no le interesa el mercado del escritorio ni los sistemas operativos. Por supuesto, que no va a renunciar al dinero que aún recibe por licencias y soporte técnico. Pero, de a poco se va convirtiendo en una empresa de servicios en la nube. Y los servicios en la nube requieren saber más datos de los usuarios.

Yo uso bastante software privativo porque me resulta más útil el tiempo que me ahorran sus prestaciones que la libertad de poder leer y modificar el código.  Y además la documentación suele estar más ordenada y es más fácil de encontrar que la del software libre. Pero, lo hago con los ojos abiertos. La forma de comunicar los cambios en la configuración de Office es una obra maestra de la ingeniería social. Está redactada para que la mayoría de la gente lea un par de líneas y pulse en Aceptar.

Sin embargo, si consideras que la integración con la nube no vale la pena sacrificar tu privacidad, aquí tienes algunas alternativas perfectamente funcionales:

Suites ofimáticas para el escritorio Windows que no envían datos.

  • LibreOffice: Es la más completa de las suites ofimáticas de código abierto y la que tiene mejor compatibilidad con los formatos de Microsoft Office de todos sus competidores. (Incluyendo los de software privativo). Incluye un procesador de textos, una planilla de cálculos, un programa de presentaciones, uno de dibujos y un gestor de base de datos. Su punto en contra es que no tiene aplicación para móviles.
  • OpenOffice: Es la más antigua de las suites ofimáticas de código abierto. Su desarrollo es lento ya que tiene pocos colaboradores, pero cuando sacan una nueba versión puedes estar seguro de que no tendrá problemas.  Hay una aplicación para móviles Android pero no es recomendable para pantallas de menos de 7 pulgadas.
  • Softmaker Office/FreeOffice: Se trata de software primativo. El primero es de pago, el segundo gratuito. Trabajan en forma nativa con los formatos de Microsoft Office y tienen aplicaciones mara móviles.

El artículo Lo que sabe Microsoft de nosotros cuando usamos Office ha sido originalmente publicado en Linux Adictos.

Kstars 3.2.2 ya disponible, con correcciones y ya solo para 64bits

$
0
0

Kstars 3.2.2

Entre las aplicaciones que más han despertado mi curiosidad están los planetarios. Este tipo de aplicación nos facilita información de planetas, estrellas, etc, con tantos detalles que podemos pasarnos horas frente a ellas. La propuesta de KDE Community es Kstars, un planetario que está disponible para Linux, así como en los otros dos sistemas operativos de escritorio más usados: macOS y Windows. KDE ha lanzado hoy una nueva versión, más concretamente Kstars 3.2.2.

Kstars 3.2.2 se ha lanzado principalmente para corregir errores, pero también para añadir unas pocas funciones que detallaremos tras el corte. También tras el corte os enseñaremos cómo instalar Kstars en Linux, no sin antes mencionar que está en versión APT desde los repositorios oficiales de Ubuntu (con un buen puñado de dependencias) y en un paquete Snap que contiene todo lo necesario en un mismo paquete. Me parece importante mencionar que la versión Snap, al contrario de lo que deberíais esperar, está más desactualizada que la versión APT.

Kstars 3.2.2 ya disponible para Linux, macOS y Windows

Podemos instalar Kstars vía terminal o desde el centro de software. Desde el centro de software bastará con buscar “Kstars” e instalar el programa. Si queremos hacerlo vía terminal lo haremos con estos comandos:

Versión Snap:

]sudo snap install kstars

 

Versión APT:

sudo apt install kstars

 

Novedades incluidas en esta versión

  • Corrección importante de estabilidad para cierres reportados con FITS Viewer.
  • Ignorar Streaming de Video al guiarse vía PHD2 con un dispositivo de vídeo.
  • Sincronizado automático para dispositivos activos al iniciar.
  • Correcciones en la acción de dar la vuelta.
  • Se mantienen los parámetros de la GUI para el programador y captura en la sincronización con la selección de cola.
  • Cuando se detecta un filtro manual, se le pregunta al usuario si cambiar el filtro y actualizar el driver en consecuencia.
  • Se ha corregido el filtro de objetos del asistente de lista de observación por tiempo y altitud e introducido un parámetro de cobertura donde el usuario puede controlar el porcentaje.
  • Mejorado el guardado de ajustes en todos los módulos Ekos.

Tenéis información más detallada en este otro artículo que mi compañero David escribió en marzo. ¿Has probado Kstars? ¿Qué te parece?

El artículo Kstars 3.2.2 ya disponible, con correcciones y ya solo para 64bits ha sido originalmente publicado en Linux Adictos.

Red Hat OpenShift Container Platform elegida por más de 1000 empresas de todo el mundo

$
0
0

Openshift logo

Red Hat OpenShift Container Platform ha sido elegida por más de 1000 empresas de todo el mundo para impulsar sus aplicaciones empresariales. Las empresas proceden de distintos sectores, desde el sector de la energía hasta el de la industria. Cada vez más empresas están usando OpenShift como una solución líder para Kubernetes empresariales en su afán por la transformación digital de las empresas para competir desde la nube híbrida y tecnologías de contenedores.

Red Hat anunció el lanzamiento de OpenShift 4, la nueva versión mejorada de esta plataforma reputada de Kubernetes empresariales como les comentamos en LxA, y hemos podido conocer estos datos. No es de extrañar si tenemos en cuenta que esta plataforma tiene como objetivo ofrecer una simplicidad similar a la de la nube con operaciones automatizadas full-stack en toda la nube híbrida.

Algunos de los clientes de Red Hat OpenShift casi han duplicado su crecimiento desde el pasado año. Por tanto, Red Hat OpenShift está impulsando a los clientes de todo el mundo y de todos los sectores. Industrias como la automoción, los servicios financieros, la hostelería, los seguros, la logística, el comercio minorista, los viajes, energético, las telecomunicaciones, agencias gubernamentales, etc., donde Linux, y la nube están siendo cruciales para el avance y la modernización que permite ofrecer servicios innovadores o de una mejor forma.

De entre los nombres de organizaciones más destacables ya sabemos que se encuentra el Banco Santander, ANZ Bank, Gathay Pacific, Copel Telecom, GE, Lufthansa Technik, Macquarie Bank, Miles and More GmbH, Paychex, Porsche Informatik, Sabre, Swisscom AG, Via Varejo, X by Orange, BP, Deutsche Bank, Emirates NBD, HCA Healthcare, Kohl’s (estas 5 últimas ganadoras del premio Red Hat Innovation Award) y un largo etc. Casi el 50% de las empresas listadas en Fortune 100 usan esta solución y casi el 30% de las listadas en Fortune Global 500 lo hacen también.

El artículo Red Hat OpenShift Container Platform elegida por más de 1000 empresas de todo el mundo ha sido originalmente publicado en Linux Adictos.


GitHub Service Package Registry, un servicio de administración de paquetes

$
0
0

GitHub anunció el lanzamiento del nuevo Service Package Registry, en el que los desarrolladores tienen la oportunidad de publicar y distribuir paquetes con aplicaciones y bibliotecas.

Service Package Registry admite la creación de repositorios de paquetes privados que están disponibles solo para ciertos grupos de desarrolladores y repositorios públicos para la entrega de paquetes listos para usar sus programas y bibliotecas.

Sobre Service Package Registry

El servicio presentado de Service Package Registry permite desarrollar código y preparación de paquetes en un solo lugar, así como organizar un proceso centralizado de entrega de dependencias directamente desde GitHub.

De esta forma, se evitan intermediarios y repositorios específicos de paquetes específicos para diferentes plataformas.

En el anuncio de Service Package Registry, se describe: 

GitHub Package Registry está totalmente integrado con GitHub, por lo que puede utilizar las mismas herramientas de búsqueda, navegación y administración para encontrar y publicar paquetes como lo hace para sus repositorios.

También puede usar los mismos permisos de usuario y equipo para administrar el código y los paquetes juntos. GitHub Package Registry proporciona descargas rápidas y confiables respaldadas por el CDN global de GitHub.

Y es compatible con las herramientas familiares de administración de paquetes: JavaScript (npm), Java (Maven), Ruby (RubyGems), .NET (NuGet), e imágenes Docker, con más por venir.

Para instalar y publicar paquetes utilizando el Service Package Registry, se pueden usar los gestores de paquetes ya existentes y comandos como npm, docker, mvn, nuget y gem.

Según las preferencias del usuario, uno de los repositorios de paquetes externos provistos por GitHub está conectado: npm.pkg.github .com, docker.pkg.github.com, maven.pkg.github.com, nuget.pkg.github.com o rubygems.pkg.github.com.

packages-terminal

Cuando trabaja en un proyecto que tiene dependencias en los paquetes, es importante que confíe en ellos, comprenda su código y se conecte con la comunidad que los construyó.

Y dentro de las organizaciones, debe poder encontrar rápidamente lo que se ha aprobado para su uso.

Paquetes, juntos, con su código

Para acelerar la carga de paquetes, se utiliza una red de entrega de contenido de almacenamiento en caché global que es transparente para los usuarios y no requiere una selección separada de duplicados. Para la publicación de paquetes, se utiliza la misma cuenta que para acceder al código en GitHub.

De hecho, además de las secciones “etiquetas” y “lanzamientos”, se ha propuesto una nueva sección de “paquetes”, cuyo trabajo se integra perfectamente en el proceso actual de trabajo con GitHub.

Los paquetes alojados en GitHub incluyen detalles y estadísticas de descarga, junto con su historial completo, para que sepa exactamente lo que está incluido.

Esto facilita la búsqueda y el uso del paquete correcto como una dependencia para su proyecto, y aumenta su confianza en que solo contiene lo que se anuncia. Con más información sobre los paquetes que publica, puede comprender exactamente cómo los utilizan otras personas y repositorios.

El servicio de búsqueda se ha ampliado con una nueva sección para buscar paquetes. La configuración de derechos de acceso existente para los repositorios de código se hereda automáticamente para los paquetes, lo que permite controlar el acceso tanto al código como a los paquetes en un solo lugar.

Se proporciona un sistema de enlaces basado en la web para conectar sus controladores llamados antes o después de la publicación y una API para integrar herramientas externas con el Service Package Registry. También está disponible un informe con estadísticas de descargas e historial de versiones.

¿Puedo probar Service Package Registry?

Actualmente, el servicio de Service Package Registry, en estos momentos está en fase de prueba beta, dentro del cual, previa a una solicitud, el acceso se proporciona de forma gratuita para todos los tipos de repositorios.

Una vez finalizada la prueba, el acceso gratuito estará restringido solo a los repositorios públicos y a los repositorios de código abierto.

Para los desarrolladores de proyectos de código abierto, el servicio propuesto puede ser útil para organizar las pruebas previas al lanzamiento antes de formar los lanzamientos finales que caen en los repositorios principales.

El artículo GitHub Service Package Registry, un servicio de administración de paquetes ha sido originalmente publicado en Linux Adictos.

Sam Hartman dice que las tomas de decisiones pueden mejorarse en Debian Project

$
0
0

Foto de Sam Hartman

Sam Hartman es el nuevo líder del proyecto Debian que ha sido elegido este año, como os comentamos en LxA. Y poco después de tomar su nuevo puesto en la jerarquía de este enorme proyecto, ya ha hablado sobre algunas cosas que se podrían mejorar. La autocrítica es muy positiva y espero que con cada aire nuevo que entra en este proyecto se pueda avanzar hacia delante. Y uno de esos pasos que se puede dar al frente es en el aspecto de la forma en que se toman decisiones.

El nuevo líder piensa que una de las cosas que han frenado al proyecto es la cantidad de tiempo que se toma para las decisiones, y que los desarrolladores a menudo se sienten frustrados con las herramientas y los procesos que se utilizan. Por tanto, esto debería ser una de las prioridades en su nuevo cargo, mejorar todo esto. También ha cometado algunas anécdotas sobre cómo comenzó a usar Debian en 1996 o cómo se incorporó al proyecto.

Sobre su incorporación o descubrimiento al mundo Linux dice que en 1996 descubrió a Debian como una poderosa Linux que le permitió dejar DOS. Luego, tras haber investigado durante su época universitaria con Kerberos, trabajaría en ése proyecto del MIT y asumiendo varios roles. También crearía una empresa de consultoría después de dejar IETF, donde Debian seguía presente y trabajaría en el proyecto Moonshot.

Actualmente Hartman sigue manteniendo el código de Kerberos y Moonshot en Debian, y también asume el liderato de Debian Project. Por cierto, Kerberos es un proyecto bastante conocido y creo que no necesita presentación, pero para los que no conozcan Moonshot, se trata de una tecnología basada en el estándar abierto IETF ABFAB. Moonshot, al igual que Kerberos, es un proyecto relacionado con la seguridad. Tiene como objetivo permitir el acceso federado a prácticamente cualquier aplicación o servicio.

El artículo Sam Hartman dice que las tomas de decisiones pueden mejorarse en Debian Project ha sido originalmente publicado en Linux Adictos.

Desbloquear un PDF con pdfcrack, la mejor opción para Linux

$
0
0

desbloquear un pdfComo prometimos hace unos días, hoy os traemos un tutorial con el que podremos desbloquear un PDF bloqueado con contraseña. Lógicamente, lo explicado en este artículo será para recuperar una contraseña que hayamos perdido u olvidado, lo que podría significar la pérdida de datos de un PDF por culpa de nuestra mala memoria. El artículo que escribimos hace unos días era por comodidad, mientras que este es para poder acceder a un archivo al que no podemos acceder.

La herramienta de la que os vamos a hablar hoy se llama pdfcrack. Tenéis que tener en cuenta que este tipo de herramientas no hacen milagros y que, dependiendo de la fortaleza de una contraseña, puede que no la recupere nunca. El sistema usado para descifrar la contraseña es la fuerza bruta y el proceso es largo, no tanto por lo que tenemos que hacer sino por el tiempo que podría tardar en finalizar el trabajo. Os detallamos el proceso a continuación:

Cómo desbloquear un PDF con pdfcrack

Como el proceso será largo, pasamos directamente a explicar los pasos:

  1. pdfcrack está disponible en la mayoría de los repositorios oficiales de las diferentes distribuciones de Linux. En Ubuntu y derivados se puede instalar con el comando “sudo apt install pdfcrack” sin las comillas.
  2. Una vez instalado, ejecutaremos la herramienta con el comando:
pdfcrack -f nombre_del_archivo.pdf

NOTA: para los despistados, cuando ponemos el nombre de un archivo nos referimos a la ruta completa. Esto significa que o bien nos metemos en su directorio en el terminal antes de ejecutar el proceso con solo el nombre del archivo o bien lo arrastramos al terminal y en distribuciones como Ubuntu le quitamos las comillas.

El proceso puede ser muy largo, y más teniendo en cuenta que pdfcrack sólo usa un procesador. Eso sí, puede usar el 100% del mismo. Para acelerar el proceso, podemos añadirle caracteres para probar, para lo que usaremos la opción -c. Esto le dará un punto de partida y puede ser útil si siempre usamos un patrón. Por ejemplo, el siguiente comando sería si yo usara contraseñas con la palabra “coche” y números.

pdfcrack -f nombre_del_archivo.pdf -c coche1234

Si, por la razón que sea, queremos parar el proceso podemos hacerlo con Ctrl+C. En el momento lo pulsemos, pdfcrack intentará salvar el estado del proceso, lo que significa que podremos seguirlo más adelante. El archivo del proceso suele guardarse con el nombre “savedstat.sav” en nuestra carpeta personal y para seguirlo usaremos la opción -1. El comando quedaría así:

pdfcrack -f nombre_del_archivo.pdf -1 savedstate.sav

Otra opción que podemos configurarle es el número mínimo de caracteres. Teniendo en cuenta que nos conocemos, podemos saber qué solemos poner en las contraseñas. Yo, por ejemplo, suelo usar los generadores de mis dispositivos o el !bang de DuckDuckGo diseñado para generar contraseñas aleatorias. En el segundo caso, le suelo poner 12. La opción es -n=longitud, donde “longitud” es el número de caracteres. El comando quedaría así:

pdfcrack -f nombre_del_archivo.pdf -n=12

Si en vez de “-n” ponemos “-m”, le estaremos diciendo cuántos caracteres tendrá como máximo. El el siguiente ejemplo le indico que como máximo tiene que tener 20:

pdfcrack -f nombre_del_archivo.pdf -m=20

Combinando opciones de pdfcrack

Como muchas herramientas del terminal, pdfcrack nos permite combinar opciones para facilitar el proceso de desbloquear un pdf. Para ello solo hay que dejar un espacio entre opción y opción. Un ejemplo sería el siguiente:

pdfcrack -f nombre_del_archivo.pdf -m=20 -n=12 -c 100690

Con el comando anterior le habremos dicho que:

  • La contraseña tiene un mínimo de 12 caracteres.
  • El máximo que debe combinar son 20 caracteres.
  • La contraseña tiene en algún punto los caracteres “100690”. No es necesario que estén ordenados.

Como hemos explicado, esto puede valer si solemos usar un sistema para generar nuestras contraseñas. Hasta hace unos años donde fue noticia que habían hackeado a Yahoo!, yo usaba un sistema en el que añadía mi fecha de nacimiento. Si yo hubiera nacido el 10 de junio de 1990 y usara esos números, añadiéndoselos facilitaría mucho el proceso.

Otras opciones disponibles son:

  • -w: para abrir un archivo de texto en donde le configuremos varias palabras. Esto es lo que se conoce como un diccionario. Muchas herramientas que usan la fuerza bruta para descifrar contraseñas cuentan con un diccionario u opción para añadírselo.
  • -o: para que trabaje con la contraseña de un dueño.
  • -p: proporciona la contraseña de un usuario para facilitar a obtener la contraseña de un dueño.
  • -s: la permutación está limitada a cambiar la primera palabra por mayúsculas.
  • -b: nos mostrará unos benchmarks para ver el rendimiento de pdfcrack durante el proceso.

Opciones de pdfcrack

Todo esto aparece si ejecutamos el comando “pdfcrack” sin añadirle ninguna opción ni archivo. Es lo mismo que en otros programas si añadimos “help”, “?” o algo similar.

Desbloquear un pdf más rápido

El problema de pdfcrack es que solo hace uso de un procesador. ¿Lo bueno? Que podemos lanzar hasta tres procesos con tres núcleos diferentes, todo en la misma ventana del terminal. Para ello, como en otros comandos del terminal, añadiremos la letra “&” entre comandos. Por ejemplo:

pdfcrack -f prueba.pdf & pdfcrack -f prueba.pdf -c ccoeh & pdfcrack -f prueba.pdf -c 100690 -n=5

Con lo anterior, una de las opciones buscará en general, la segunda buscará con las letras “ccoeh” y la tercera con los números “100690”.

Contraseña del PDF

En el ejemplo que os traigo, yo he protegido el archivo “prueba.pdf “con la contraseña “coche” (de ahí las letras de arriba). Como veis, lo ha conseguido gracias a la segunda opción que le he indicado. En un caso en el que le ponemos las letras que debe tener, el resultado es instantáneo, no dura ni un segundo en un ordenador no muy potente.

Una vez hemos terminado, si queremos asegurarnos de que pdfcrack deja de ejecutarse, escribiremos el comando:

killall pdfcrack

En el caso de que sea algo muy importante, lo mejor que podemos hacer es lo de guardar las sesiones y continuarlas en otro momento. Esto nos permite apagar el ordenador siempre que queramos, por lo que, sin tiempo límite, no debería haber contraseña que se nos resistiera.

¿Ya sabes cómo desbloquear un PDF con esta potente herramienta?

El artículo Desbloquear un PDF con pdfcrack, la mejor opción para Linux ha sido originalmente publicado en Linux Adictos.

SPTAG: un algoritmo de aprendizaje automático open source de Microsoft

$
0
0

sptag

Los motores de búsqueda de hoy han evolucionado mucho ya que no solo se sirven con solo devolver las páginas después de recibir una o más palabras clave, sino que también intentan responder preguntas, sugerir contextos, etc. Los usuarios incluso tienen la capacidad de buscar desde otros elementos, como imágenes.

Por supuesto, seguir las preferencias de búsqueda de los usuarios no es nuevo: ha sido una lucha difícil desde la creación de la búsqueda web.

Pero ahora, cada vez es más difícil satisfacer estas necesidades siempre cambiantes, gracias a los avances en inteligencia artificial, incluidos los desarrollados por el equipo de investigación de Bing y los investigadores del laboratorio de investigación de Microsoft.

“La inteligencia artificial hace que los productos con los que trabajamos sean cada vez más naturales”, dijo Rangan Majumder, Gerente de Programas del Grupo para el equipo de Investigación de Bing e Inteligencia Artificial de Microsoft.

Usando vectores para una mejor búsqueda

Los algoritmos de aprendizaje automático de Bing se utilizan para crear vectores, (esencialmente una representación digital de una palabra, un píxel de imagen u otro punto de datos). Un vector ayuda a capturar lo que realmente significa un dato, ya sea texto en una página web, imágenes, sonido o videos.

Una vez que el punto numérico se ha asignado a un dato determinado, puede organizar o mapear vectores, con números cercanos colocados cerca uno del otro para representar la similitud. Estos resultados proximales se muestran a los usuarios, lo que mejora los resultados de búsqueda.

Microsoft comenzó a centrarse en la tecnología en la que se basa la investigación vectorial de Bing cuando los ingenieros de la compañía comenzaron a notar patrones inusuales en los patrones de búsqueda de los usuarios.

“Al analizar nuestras revistas, el equipo descubrió que las consultas de búsqueda se hacían cada vez más largas”, dijo Majumder.

Esto sugería que los usuarios hacían más preguntas, daban muchos detalles debido a resultados anteriores que no eran satisfactorios con una búsqueda por palabra clave, o “intentaban actuar como computadoras” cuando describían cosas abstractas.

Con Bing Search, la vectorización se ha expandido a más de 150 mil millones de datos indexados de motores de búsqueda para mejorar la comparación con las palabras clave tradicionales.

Estos incluyen palabras simples, caracteres, fragmentos de páginas web, consultas completas y otros medios. Una vez que un usuario realiza una búsqueda, Bing puede analizar los vectores indexados y proporcionar la mejor coincidencia.

La asignación de vectores también se forma utilizando tecnología de aprendizaje en profundidad para la mejora continua.

Los modelos tienen en cuenta las entradas, como los clics del usuario final después de una búsqueda para comprender mejor el significado de esta búsqueda.

Space Partition Tree and Graph fue liberado como código abierto

De hecho, Microsoft usa un algoritmo llamado Space Partition Tree and Graph (SPTAG). Una consulta de entrada se convierte en un vector, y SPTAG se usa para encontrar rápidamente “vecinos más cercanos”, es decir, vectores que son similares a la entrada.

“Microsoft usa la búsqueda vectorial para su propio motor de búsqueda Bing, una tecnología que ayuda a Bing a comprender mejor la intención detrás de miles de millones de búsquedas web y encontrar el resultado más relevante entre miles de millones de páginas web”.

Microsoft ha puesto a disposición de todos, como un proyecto de código abierto en GitHub,

“una de las herramientas de inteligencia artificial más avanzadas y más adecuadas para satisfacer las necesidades de búsqueda de los usuarios en constante cambio”.

El miércoles, el editor también publicó ejemplos de técnicas de usuario y un vídeo de acompañamiento para estas herramientas a través del laboratorio de inteligencia artificial de Microsoft.

El equipo de Bing ha declarado que espera que la oferta de código abierto pueda ser utilizada por las empresas o aplicaciones principales para identificar un idioma hablado basado en un fragmento de audio, o para servicios que incluyen muchas imágenes, como una aplicación que permite a los usuarios relacionar los datos y búsquedas.

Código fuente de SPTAG

El artículo SPTAG: un algoritmo de aprendizaje automático open source de Microsoft ha sido originalmente publicado en Linux Adictos.

Tweetdeck se actualiza, por fin, con GIFS, encuestas, emoji e hilos

$
0
0

Actualización de TweetdeckHace años, la aplicación oficial de Twitter era tan simple que todos los que conozco terminaban usando otras opciones. Entre esas opciones estaba Tweetdeck, una app/servicio web que nos permitía hacer más cosas que la propuesta oficial. Twitter empezó a mejorar su servicio y, todo hay que decirlo, también empezó a poner trabas a terceros desarrolladores, quienes no han podido incluir en sus apps las últimas y mejores opciones que ofrece la red de microblogging.

Twitter terminó comprando Tweetdeck, lo que se tradujo en que desapareciera su aplicación de escritorio y que llegaran pocas o ninguna actualización. Pero parece que a Twitter le interesa que los usuarios de Tweetdeck sigan contentos usando este servicio web, por lo que lo han actualizado para introducir unas opciones con las que, una vez las pruebas, ya no puedes vivir sin ellas: encuestas, GIFs, emojis e hilos, todos ellos disponibles desde la composición del tweet.

Tweetdeck hereda la composición del tweet de Twitter

Tweetdeck, composición de tweet

Como podéis ver en la imagen anterior, la actualización del servicio web de Tweetdeck es básicamente que han cambiado la composición del tweet para que sea exactamente igual que la versión móvil de Twitter. Solo hay un problema, como veis en el compositor anterior, antes nos permitía programar un tweet, una opción que ha desaparecido en la nueva versión del compositor. Lo bueno es que, por lo menos ahora mismo, hay una opción que nos permite volver a la versión anterior (“Switch back to the old composer”), pero no sabemos si esto será así siempre o la eliminarán en el futuro.

Composición del tweet antigua

La nueva opción fue anunciada por la cuenta oficial de Tweetdeck, ¿adivináis dónde?, en Twitter. Ahora mismo está en pruebas, tal y como podéis leer en el tweet publicado ayer. Teniendo esto en cuenta, todo parece indicar que, cuando terminen las pruebas, no se podrá volver al compositor anterior, lo que podría significar que ya no se podrán programar tweets.

Lo que también están probando es que la versión web moderna, por lo menos en móviles y tablets, nos permite añadir más cuentas, hasta 5 para ser exactos. Twitter siempre está experimentando y no todos los cambios son buenos, pero creo que los mencionados en este artículo sí lo son, y más para los usuarios de Linux que no paramos de buscar buenas opciones sin éxito. ¿Tú qué opinas?

Artículo relacionado:
3 de los mejores clientes de Twitter para usar en Linux

El artículo Tweetdeck se actualiza, por fin, con GIFS, encuestas, emoji e hilos ha sido originalmente publicado en Linux Adictos.

Portainer: una interfaz gráfica basada en web para Docker

$
0
0

web de Portainer

Si sueles trabajar con los contenedores y con Docker, quizás te interese conocer el proyecto Portainer. Se trata de una interfaz gráfica desde donde gestionar y trabajar con contenedores y Docker de una forma mucho más intuitiva y sencilla. Esta GUI se basa en web, por lo que puede usarse en multiplataforma. Además, permite su administración tanto de forma remota, para trabajar con contenedores en otras máquinas o servidores, y de forma local.

Para más información puedes dirigirte a la página oficial del proyecto Portainer, donde encontrarás manuales e información sobre cómo puedes trabajar con él. Por cierto, podemos usar la placaforma Portainer Community Edition que es ligera y de código abierto y también Portainer Agent, que no es de código abierto. Con ello podremos gestionar contenedores, imágenes, redes y volúmenes de una forma muy sencilla.

La herramienta es compatible con el motor Docker y con Docker Swarm. Entre las características que vas a encontrar en Portainer es su sencilla interfaz gráfica basada en web desde donde podrás gestionar remota o localmente contenedores, iniciarlos, pararlos, matarlos, reiniciarlos, pornerlos en pausa, renombrarlos, eliminarlos, y agregar contenedores, crear imágenes, levantar redes, monitorizar los logs y contenedores en marcha (CPU, memoria, uso de red, procesos,…), correr una consola para acceder a ellos, trabajar con volúmenes, etc.

Una completa suite de trabajo que te facilita las cosas. Por cierto, si quieres probar una instancia demo, puedes visitar la página web http://demo.portainer.io/ y desde allí te puedes registrar con el nombre de usuario admin y la contraseña tryportainer. Espero que te ayude esta información para gestionar tus containers si aún no conocías Portainers y que haga tu trabajo diario algo más sencillo. Desde LxA intentamos trabajar para dar este tipo de noticias y facilitarle las cosas a todos aquellos que nos leen de forma frecuente.

El artículo Portainer: una interfaz gráfica basada en web para Docker ha sido originalmente publicado en Linux Adictos.

Si usas versiones anteriores de apps de Adobe podrías ser demandado

$
0
0

adobe

Todas aquellas oportunidades para “obligar” a los usuarios a utilizar las ultimas versiones de software son buenas y más aún para prohibir a los usuarios que sigan utilizando versiones ya pasadas.

Es como decirle a los usuarios: lo compraste con tu dinero, pero no es realmente tuyo. Y es que esta situación que parece un chiste, no lo es para los suscriptores de Adobe Creative Cloud que ya saben de qué se trata esta semana, al menos aquellos que ya han revisado sus emails.

Todos aquellos que no hayan actualizado sus aplicaciones por algún tiempo se verán obligados a hacerlo ahora contra su voluntad y bajo amenaza.

Adobe, la compañía de software de gráficos, envió recientemente emails a los clientes advirtiéndoles que podrían ser “Demandados” por utilizar versiones que anteriores de su software.

El aviso de finalización e indulgencia incluye versiones anteriores de las aplicaciones de Creative Cloud, incluidas Photoshop, Premiere Pro y Lightroom Classic, Animate y Media Director.

Ya que los correos electrónicos enviados a los usuarios incluso enumeran las aplicaciones antiguas instaladas en “sus sistemas” y en algunos casos, mencionan las últimas versiones disponibles de estos.

Además en el email enviado Adobe notifica a los usuarios que ya no están autorizados para usarlos y que cualquier persona que continúe usando estas versiones puede estar sujeta a “demandas por infracción de derechos de autor” de terceros. Y “Los terceros incluyen a cualquier persona o compañía que pueda tener un reclamo por incumplimiento.

La decisión de Adobe se genero por una demanda de Dobly

Los usuarios que han recibido el correo electrónico y cuyas aplicaciones han sido abandonadas, obviamente se quejan de esta decisión inesperada.

Y es que fue cuestión de horas para que comenzaran las quejas y en respuesta a una queja en Twitter, la cuenta de AdobeCare declaró que:

Los usuarios solo pueden descargar las dos variantes más recientes de aplicaciones CC en el futuro, sin dar más razones por las que solo se debe utilizar estas versiones y que ademas la cuenta de Twitter de la compañía indicó que el problema surgió de un “litigio pendiente”.

Adobe no ha dado detalles sobre la demanda en curso que lo obligó a enviar correos electrónicos de advertencia a los usuarios, sin embargo, la compañía actualmente está siendo demandada por Dolby.

Sobre la demanda

Adobe pasó del modelo de software estándar al modelo de suscripción en la nube en 2013, lo que resultó en un aumento significativo en los ingresos. Antes de la creación del Servicio de suscripción de Creative Cloud, Adobe otorgó licencias a ciertas tecnologías Dolby con un acuerdo basado en la cantidad de discos de ciertas aplicaciones vendidas.

Ahora que el software se distribuye en línea, las empresas habrían renegociado su acuerdo en función del número de usuarios que utilizan el software. La demanda presentada por Dolby acusó a Adobe de infringir los derechos de autor sobre cómo los costos de licencia pagados por Adobe a Dolby se calcularían según este nuevo modelo.

En una queja presentada en marzo de 2019 ante el Tribunal de Distrito de los EE. UU. Y el Distrito Norte de California, Dolby solicita un juicio con jurado por cuestiones de “infracción de derechos de autor e incumplimiento de contrato” contra Adobe.

El Depósito Legal de Dolby explica:

“Cuando Dolby quería ejercer su derecho de revisar los libros y registros de Adobe para asegurarse de que los informes y los pagos eran correctos, Adobe se negó a participar en las prácticas de auditando y compartiendo información básica, prácticas que ella misma había requerido de sus propios licenciatarios “.

“Aparentemente, Adobe decidió que era mejor pasar años escondiéndole esta información a Dolby que permitir que Dolby comprendiera el alcance total de las infracciones contractuales de Adobe”, agrega. “Sin embargo, la información limitada que Dolby ha revisado hasta la fecha demuestra que Adobe ha incluido las tecnologías de Dolby en muchos productos de software y colecciones de productos de Adobe, pero se ha negado a declarar cada venta o pagar las tarifas acordadas debidas a Dolby”.

El artículo Si usas versiones anteriores de apps de Adobe podrías ser demandado ha sido originalmente publicado en Linux Adictos.


Sony y Microsoft forman una alianza para enfrentar la competencia de los juegos en la nube

$
0
0

Sony y Microsoft se unen

A medida que los videojuegos están cambiando sus caras, las compañías más grandes del sector se apresuran a desarrollar tecnologías que les permitan ofrecer las mejores experiencias de juego a los jugadores en los próximos años.

Con esto en mente, Microsoft y Sony, dos de los grandes en consolas de videojuegos más importantes del mundo, anunciaron el dia de ayer (jueves 16 de Mayo) una colaboración entre las dos compañías para traer más innovaciones para mejorar la experiencia del cliente en sus diversas plataformas de entretenimiento.

En otras palabras, la asociación permitirá que ambas compañías y especialmente Sony, exploren a fondo el poder de Microsoft Azure y Microsoft Azure AI para ofrecer nuevas experiencias de entretenimiento y juegos a sus clientes.

Desde principios de esta década, la tendencia de la computación en la nube ha ganado muchos sectores en el mundo de la informática y la de los videojuegos no se ha escapado hasta ahora.

Hoy parece más y más que el futuro de los videojuegos residirá en la nube y en algunos años, hablaremos más que “juegos en la nube”.

El concepto de juego en la nube, es deportar los cálculos en servidores remotos y dejar en manos del jugador un terminal relativamente pasivo que requiere la presencia de una conexión a Internet de banda ancha.

Los pedidos que se envían a través del controlador (teclado, mouse, gamepad, etc.) se envían a los servidores en los que se ejecutan los juegos.

Las grandes compañías de videojuegos de todo el mundo, como Google, ya están planeando para el futuro.

Artículo relacionado:
Google Stadia arrasa; Microsoft, Sony y Nintendo no tienen nada que hacer…

En la pasada GDC (Game Developers Conference) de este año, Google presentó Stadia, su visión del futuro de los videojuegos.

Stadia es un servicio de transmisión desde la nube que le brinda acceso instantáneo a videojuegos AAA en todos los tipos de dispositivos, incluidos PC, Chromebooks, teléfonos inteligentes, tabletas y televisores. Stadia es compatible con la mayoría de los teclados y dispositivos de entrada estándar, pero Google ha agregado un toque personal.

Además del hecho de que puedes jugar en cualquier dispositivo, Google, para mejorar tu experiencia de juego, ha proporcionado un joystick (controlador o joystick) que te conectará a sus servidores de juegos a través de Wi-fi para identificar el juego.

¿Sintieron los competidores de Google que la amenaza llegó?

Parecería que sí. Para esto, Sony y Microsoft decidieron este jueves unir fuerzas para contraatacar. Las dos compañías, que una vez fueron rivales en el mercado de las consolas, ahora han elegido unirse para competir mejor con los recién llegados, como el magnate de la búsqueda Google.

El acuerdo entre las dos compañías sigue a una reunión celebrada ayer entre Kenichiro Yoshida y Satya Nadella, respectivamente, los CEO de Sony y Microsoft.

En un anuncio en su sitio web oficial, Microsoft explicó que bajo el MoU firmado por las partes, las dos compañías explorarán el desarrollo conjunto de futuras soluciones de nube en Microsoft Azure para respaldar sus servicios de juegos y juegos.

Además, ambas compañías explorarán el uso de soluciones actuales basadas en el Centro de datos de Microsoft Azure para los servicios de transmisión y transmisión de Sony. Al trabajar juntos, Microsoft ha escrito, las compañías buscan ofrecer más experiencias de entretenimiento mejoradas a sus clientes en todo el mundo.

Sin embargo como Microsoft también explicó en su anuncio oficial, el MoU va más allá del dominio de los juegos en la nube.

Pues dijo que las dos compañías, Sony y Microsoft, también explorarán oportunidades para la colaboración en semiconductores y IA.

En este punto, el CEO de Sony, Kenichiro Yoshida, dijo que espera que en las áreas de semiconductores y IA, la asociación aprovechará la tecnología avanzada de cada compañía de manera mutuamente complementaria. Lo que luego llevará a la creación de un nuevo valor para la sociedad.

En el campo de los semiconductores, Microsoft ha indicado que al integrar los sensores avanzados de imagen de Sony de forma híbrida con la tecnología de Microsoft Azure AI y las tecnologías híbridas que utilizan los semiconductores y la tecnología de Sony.

Ambas compañías buscan brindar características mejoradas a las empresas.

Con respecto a la inteligencia artificial, las partes explorarán la integración de la plataforma avanzada de inteligencia artificial de Microsoft y otras herramientas en los productos de consumo de Sony, para ofrecer experiencias de inteligencia artificial altamente intuitivas y amigable.

El artículo Sony y Microsoft forman una alianza para enfrentar la competencia de los juegos en la nube ha sido originalmente publicado en Linux Adictos.

Las tres mejores opciones para comprar computadoras con Linux

$
0
0
Comprar computadoras con Linux es mucho más fácil

El portal belga Ubuntushop ofrece modelos con las distros Linux más populares

Comprar computadoras con Linux es mucho más fácil. Las cosas mejoraron mucho en los últimos quince años. En el 2006, ya siendo usuario de Linux, tuve que comprar una computadora nueva, y la experiencia fue bastante complicada. Sobre todo, en un país como Argentina que por algún motivo idolatra a “la industria nacional”. Industria nacional es un argentinismo que significa importador de China que cobra muy caro por pegar una etiqueta de “Made in Argentina”.

Pero tampoco en los países de Europa y Estados Unidos era demasiado fácil conseguir hardware compatible. A Foxconn, un fabricante de placas madres, lo denunciaron en su momento porque varios de sus productos impedían ejecutar Linux.

Por suerte, estamos en el 2019, y las opciones para comprar computadoras con Linux son las suficientes como para justificar un post recopilatorio.

En el 2006 escribí un post en el desaparecido foro Ubuntu-es llamado “La odisea de comprar una computadora”. Puede que exagerara un poco, pero no demasiado. Todavía recuerdo la cara de un vendedor cuando le dije que no todas las computadoras usaban Windows.

Curiosamente, mi anterior ordenador había venido con Linux. Una distribución llamada XandrOS. No sabía lo que era eso, así que lo borré e instalé Windows. Cuando unos años después instalé Ubuntu, todo funcionaba perfectamente.

Cuando me la entregaron, quise instalar Ubuntu 6.04, pero me daba un problema de compatibilidad con la resolución de pantalla. Tuve que pagar para que me instalaran Windows y esperar hasta que alguien publicara como resolver el problema.

Por si les interesa, había que iniciar el sistema con el monitor apagado y luego corregir un parámetro del gestor de arranque.

Ventajas de comprar una computadora con Linux

Comprar un ordenador con Linux preinstalado nos brinda los siguientes beneficios

  • No pagas la licencia de Windows. No sé si esto es una práctica general, ya que escuché que en algunos casos Microsoft le bonifica al fabricante el costo, pero casi seguro que la terminarás pagando de alguna forma.
  • Te evitas tener que borrar Windows e instalar Linux. En algunos casos, si borras el sistema operativo y la partición de recuperación, pierdes la garantía. Pero aún cuando no sea así, tendrás el equipo operativo apenas lo saques de la caja. A lo sumo tendrás que actualizar.
  • Tienes la compatibilidad asegurada. Cada tanto aparece la noticia de algún modelo que no funciona con Linux. Pasó con equipos Lenovo y Samsung. Comprando una computadora con alguna distribución preinstalada, sabrás que todo irá bien.
  • Contribuyes a aumentar la oferta. Cada computadora que se vende con Linux permite documentar el aumento de su participación en el mercado. A mayor participación, más oferta de software y hardware.
  • Algunas distribuciones como KDE Neon o Manjaro tienen convenios con fabricantes de hardware. Al comprar su equipo no solo consigues compatibilidad, además colaboras económicamente con el desarrollo de tu distribución preferida

Dónde comprar una computadora con Linux

Comencemos por la opción que a la mayoría de ustedes les queda más cerca.

Slimbook

Mis compañeros siempre comentan las novedades de este fabricante español. Por lo tanto, bastará decir que ofrece una variedad de modelos de escritorio, portátiles y todo en uno. Incluso uno refrigerado por agua. El precio variará de acuerdo a las opciones de configuración.

En su web aseguran la compatibilidad con distribuciones derivadas de Debian. También funciona con Fedora y OpenSUSE. No dice nada de Archlinux, pero tanto Manjaro como Antergos están en la lista por lo que debería funcionar.

StationX

Así como Slimbook es el fabricante recomendado por KDE Neon, StationX es uno de los dos recomendados por Manjaro. Se trata de un fabricante británico que ofrece un modelo de computadora de escritorio y tres de notebook. Se pueden optar por diferentes opciones de configuración.

Las distribuciones Linux preinstaladas son Debian, Ubuntu, KDE Neon, LinuxMint, Manjaro, Fedora y OpenSuse.

Ubuntushop.be

Esta empresa belga no tiene ningún tipo de relación con Canonical. Comercializa diferentes opciones de hardware ensambladas en los Países Bajos.

Comercializa equipos de escritorio, notebooks e incluso un servidor para crear nuestra propia nube privada. Dentro de la línea de notebooks incluye modelos para edición multimedia.

Además de comercializar equipos con los sistemas operativos Linux más conocidos, también incluye dos enfocados en la privacidad. Podemos conseguir equipos con Tails y Kodachi

El artículo Las tres mejores opciones para comprar computadoras con Linux ha sido originalmente publicado en Linux Adictos.

Microsoft ya te permite instalar Ubuntu 19.04 con Hyper-V en Windows 10

$
0
0

ubuntu-in-windows

Si son usuarios de Windows 10 y tienen el interés por utilizar o si quiera probar Linux solo por curiosidad, deben saber que existen varias formas de ejecutar sistemas operativos de código abierto basados en el kernel de Linux. De ellas esta el arranque dual o la ejecución de una máquina virtual.

Pero desde el lanzamiento de la compilación 14951 de Windows 10 en el cual un elemento especifico puede permitir ahora esto es el subsistema de Windows para Linux (WSL) esta opción le permite descargar e instalar distribuciones directamente desde Microsoft Application Store.

Pues en una reciente asociación entre Windows y Canonical amplía la lista de posibilidades con otro método: el uso de una imagen especial de máquina virtual “Hyper Quick Create”.

Después del lanzamiento de Ubuntu 19.04 (Disco Dingo), Canonical anuncio que una imagen optimizada de esta última versión está disponible en el catálogo Hyper-V de Windows 10.

“Nos complace anunciar que una nueva imagen de Ubuntu 19.04 se une a la lista de sistemas compatibles con Hyper-V y hará la vida un poco más fácil para las personas que trabajan con Ubuntu en Windows “, dice Will Cooke, jefe de escritorio de Ubuntu.

La idea raíz detrás de la creación de estas imágenes es simplificar la ejecución de Linux en Windows 10.

“Con ello hemos simplificado la ejecución de Linux en Windows 10. Con la función de creación se agregó Hyper-V rápido en la actualización de Windows 10 Fall Creators, nos asociamos con Ubuntu y agregamos una imagen de máquina virtual para que en unos minutos esté listo para desarrollarse.

Tienes acceso ahora mismo. Para ello simplemente debes escribir “Hyper-V Quick Create” en tu menú de inicio Dijo Clint Rutkas, Gerente Técnico Superior de Productos del Equipo de Desarrolladores de Windows.

Ubuntu 19.04 fue añadido al catalogo de Hyper-V

De acuerdo con la nota informativa de Canonical, la ejecución de Ubuntu en Hyper-V de Windows 10 presenta una serie de beneficios, como por ejemplo el cambio de tamaño dinámico del escritorio, la integración mejorada del portapapeles, una experiencia mejorada del usuario con el mouse al cambiar entre el sistema invitado y la computadora host y las carpetas compartidas.

 

Ubuntu 19.04 en Windows 10La lista de posibilidades para aquellos que prefieren el uso de Windows 10 y requieren herramientas de línea de comandos de Linux se está haciendo más larga.

Pues no hace mucho, Microsoft incluso anunció que Windows 10 pronto vendrá con un Kernel de Linux completo, de código abierto y licencia GPL.

Con ello Microsoft se refería a los desarrollos en el Subsistema de Windows para Linux (WSL). A partir del lanzamiento de la versión 19H2 de Windows 10, los usuarios deberían beneficiarse de la integración de un Kernel de Linux adaptado a la WSL.

Mientras que la versión 2 del Subsistema de Windows para Linux (WSL 2) ejecutará un Kernel de Linux completo en una máquina virtual liviana.

Sobre la base del propio Kernel de Linux, Microsoft obtendrá todas las características del sistema operativo de código abierto. Es por eso que WSL 2 admitirá los contenedores Docker: toda la infraestructura subyacente, como cgroups, ya está en el kernel de Linux y Microsoft no necesitará volver a implementar estas características.

Con cada uno de los anuncios de Microsoft sobre Linux, uno ve como una apropiación cada vez más de las posibilidades que ofrece el código abierto del sistema operativo.

Pero algunos lo ven como una maniobra por parte de Microsoft, a largo plazo, para hacer que los desarrolladores dejen de usar Linux de manera nativa.

Requisitos para ejecutar Ubuntu 19.04 en Hyper-V

Por lo tanto, para aquellos que estén interesados en probar Ubuntu en Hyper-V, deberán asegurarse de que su versión de Windows 10 sea al menos la actualización de Fall Creators.

Ya estando en esta compilación será necesario activar la función de Hyper-V en Windows 10. Hyper-V se puede activar de muchas maneras, incluso mediante el uso del panel de configuración de Windows10, PowerShell o la herramienta de administración y mantenimiento de imágenes de implementación (DISM).

Una vez que se complete la activación de Hyper-V, simplemente basta con dar clic en el botón “Crear rápido” dentro del Administrador de Hyper-V y luego eligir la opción Ubuntu 19.04.

El artículo Microsoft ya te permite instalar Ubuntu 19.04 con Hyper-V en Windows 10 ha sido originalmente publicado en Linux Adictos.

HPE se refuerza en el ámbito de la supercomputación con la compra de Cray

$
0
0

HPE y Cray logos

Tras el movimiento de IBM comprando la compañía Red Hat y así poder posicionarse como líder en soluciones cloud, ahora llega otro gran movimiento. Ahora HPE (Hewlett Packard Enterprise) ha adquirido a Cray, la prestigiosa firma de supercomputación o HPC que todos conocemos. Es cierto que este movimiento ha sido bastante más barato, ya que la compra de IBM se saldó con un desembolso de 34.000 millones de dólares, mientras que esta otra ha sido de 1.300 millones de dólares, pero ambas son clave y estratégicas.

HPE, la división para servicios empresariales de HP, ya compró en su día a otros líderes de este sector, como fue SGI (Silicon Graphics Inc.). El 1 de noviembre de 2016 se concluyó dicha operación de compra, reforzándose así y quedándose con la cuota de mercado que SGI tenía en el ámbito de la HPC, que no era poco. Ahora, HPE se come otra de las porciones que tenía Cray, otro de los líderes y pioneros en este de la supercomputación.

La transacción podría culminar en 2020, pagando 35 $ en metálico por cada acción de Cray. HPE puede mostrar músculo contra percisamente IBM, la empresa que citamos en el primer párrafo. Ya que además de los muchos sectores y servicios que ofrece el gigante azul, IBM recordemos que también es otro de los pesos pesados en el sector de la supercomputación. De hecho, si nos fijamos en gráficos o estadístias de la cuota de mercado de cada uno de estos fabricantes de equipos de alto rendimiento, la operación es bastante acertada…

Por ejemplo, si nos fijamos en las estadísticas de la lista Top500, aunque no sea representativa de los sevidores pequeños o medianos que se venden, pero sí de las 500 supercomputadoras más potentes, podemos ver el reparto en porciones para hacernos una idea de la importancia de esta compra. ¿Qué ocurrirá con Cray Linux Environment? Pues no lo sabemos, pero Linux en este sector no peligra, por lo que no hay que preocuparse. Tal vez cambie de nombre o tal vez se use otro sistema operativo basado en Linux tras la fusión, no lo sabemos con certeza, pero sí que será Linux…

El artículo HPE se refuerza en el ámbito de la supercomputación con la compra de Cray ha sido originalmente publicado en Linux Adictos.

Cómo clonar una partición o disco duro de Linux desde el terminal

$
0
0

Clonar una partición o disco duro en LinuxEn la actualidad, muchos de nuestros datos importantes están guardados en un disco duro. Para evitar pérdidas podemos hacer copias de seguridad, algo que también podemos hacer en las diferentes nubes disponibles. En cuanto a particiones o discos duros, la mejor herramienta que he probado en cualquier sistema operativo es el Time Machine de Apple, un sistema que copia todo un sistema automáticamente con solo una configuración previa y un disco externo. Una opción para conseguir clonar una partición o disco duro en Linux la podemos encontrar en el terminal.

En este artículo vamos a tratar una clonación, es decir, que lo que copiaremos será exactamente lo mismo que hay en otra partición o disco duro. Si lo único que necesitamos es guardar algunos datos importantes tenemos que usar otras herramientas o incluso hacer una copia manual. También hay que tener en cuenta que la herramienta que usaremos es el terminal, por lo que no habrá una interfaz de usuario que podamos manipular con el ratón como en Clonezilla (más o menos).

Cómo clonar una partición

Con el comando “dd” podemos copiar un disco entero o solo una partición. Lo primero que vamos a hacer es clonar una partición. En el caso de que tengamos /dev/sdb y /dev/sdc, debemos clonar /dev/sdb1 en dev/sdc1. Lo haremos siguiendo estos pasos.

  1. Con el comando fdisk listaremos las particiones:
fdisk -l /dev/sdb1/ /dev/sdc1
  1. A continuación, clonamos la partición /dev/sdb1 en dev/sdc1 con el comando “dd”:
dd if=/dev/sdb1 of=/dev/sdc1

El comando anterior el dice a “dd” que use /dev/sbd1 como entrada y lo escriba en la salida /dev/sdc1. Después de realizar la clonación, podemos comprobar el estado de ambos discos con el siguiente comando:

fdisk -l /dev/sdb1 /dev/sdc1

Cómo clonar todo un disco duro

El método anterior nos servirá para clonar una partición. Si lo que queremos es clonar todo un disco duro, el disco de salida tiene que ser del mismo tamaño o más grande que el disco de entrada. Clonaremos el disco /sdb en /sdc con este comando:

dd if=/dev/sdb of=/dev/sdc

Si queremos comprobar el estado de los discos tras la clonación, usaremos este otro comando:

fdisk -l /dev/sdb /dev/sdc

Cómo hacer una copia de seguridad de nuestro MBR

El comando “dd” también se puede usar para hacer una copia de seguridad de nuestro MBR (Master Boot Record), lo que está situado en el primer sector de nuestro dispositivo, justo antes de la primera partición. Para crear una copia de seguridad de nuestro MBR, escribiremos el siguiente comando:

dd if=/dev/sda of=/backup/mbr.img bs=512 count=1

El comando anterior le pide a “dd” que copie /dev/sda en /backpup/mbr.img con un paso de 512 bytes y la opción de conteo le pide que copie un bloque. Dicho de otro modo, le pide que copie los primeros 512 bytes de /dev/sda en el archivo que le hemos proporcionado.

¿Ya sabes cómo clonar una partición o disco duro en Linux desde el terminal?

Artículo relacionado:
¿Qué es Clonezilla? Tu amigo ante los desastres

El artículo Cómo clonar una partición o disco duro de Linux desde el terminal ha sido originalmente publicado en Linux Adictos.

Viewing all 6322 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>