Immortal Romance en PinUp: Aventura y Misterio

Introducción:

Para los entusiastas de los casinos en línea, PinUp Casino ofrece una experiencia inigualable, especialmente con su famoso juego de tragamonedas, Immortal Romance. Este juego no solo promete diversión y emoción, sino también oportunidades lucrativas para los jugadores peruanos. Descubre las ventajas de jugar por dinero real en PinUp Casino y sumérgete en el apasionante mundo de Immortal Romance.

Immortal Romance: Una Aventura de Amor Eterno y Grandes Ganancias

Reglas y Características del Juego

Immortal Romance es una tragamonedas que combina una historia intrigante de amor y misterio con la oportunidad de obtener grandes premios. Este juego cuenta con 5 carretes y 243 formas de ganar, lo que aumenta significativamente tus posibilidades de éxito. Cada personaje en el juego tiene su propia historia, que se desbloquea a medida que avanzas, añadiendo un elemento narrativo fascinante.

Símbolos y Rondas de Bonificación

Los símbolos en Immortal Romance incluyen personajes misteriosos y elementos góticos. Las rondas de bonificación se activan con ciertas combinaciones de símbolos, desbloqueando giros gratis y multiplicadores que pueden incrementar tus ganancias exponencialmente.

Jugar por Dinero Real en PinUp Casino: Beneficios para Jugadores Peruanos

Jugar Gratis y Bonos Efectivos

PinUp Casino ofrece la posibilidad de jugar tragamonedas como Immortal Romance de forma gratuita, ideal para conocer el juego antes de apostar dinero real. Además, los jugadores peruanos pueden disfrutar de programas de bonificación efectivos, como un bono de bienvenida de 1000 PEN y 25 giros gratis.

Torneos Interesantes y Premios Lucrativos

Participa en una variedad de torneos emocionantes en PinUp Casino, donde puedes competir contra otros jugadores por premios atractivos. Estos torneos añaden un nivel extra de emoción y oportunidad de ganar grandes premios.

Métodos de Pago Diversos y Soporte 24/7

PinUp Casino ofrece una amplia gama de métodos de pago, facilitando las transacciones para jugadores peruanos. Además, cuentan con un soporte al cliente disponible 24/7, asegurando una experiencia de juego sin complicaciones.

Pagos y Retiros Rápidos y Seguros

La seguridad y rapidez en los pagos y retiros es una prioridad en PinUp Casino, ofreciendo tranquilidad y confianza a sus jugadores.

Conclusión: Tu Aventura Lucrativa Comienza en PinUp Casino

Con Immortal Romance y las numerosas ventajas de jugar por dinero real en PinUp Casino, los jugadores peruanos tienen todo lo necesario para una experiencia de juego emocionante y provechosa. ¿Estás listo para explorar el misterio y ganar a lo grande? ¡Únete a PinUp Casino hoy mismo!

¡No esperes más! Regístrate en PinUp Casino, reclama tu bono de bienvenida y sumérgete en el apasionante mundo de Immortal Romance. ¡Tu próxima gran victoria te está esperando!

El cargo Immortal Romance en PinUp: Aventura y Misterio apareció primero en Tecnovedosos.



source https://tecnovedosos.com/immortal-romance-pinup-aventura-misterio/

Fruity Liner 5 en PinUp: Dulzura y Ganancias

En el vibrante mundo de los casinos en línea, PinUp Casino resalta como una plataforma que combina diversión, innovación y generosas recompensas. Una de sus joyas es Fruity Liner 5, una tragamonedas que promete a los aficionados una experiencia jugosa y llena de premios.

Fruity Liner 5: Un Torbellino de Sabores y Ganancias

Fruity Liner 5, con su temática clásica de frutas, transporta a los jugadores a una época dorada de las tragamonedas, pero con un toque moderno. Este juego se caracteriza por:

Carretes y Líneas de Pago: Consta de 5 carretes y múltiples líneas de pago, aumentando las posibilidades de obtener combinaciones ganadoras.

Símbolos Frutales: Los carretes están adornados con símbolos de frutas como cerezas, limones y uvas, cada uno con su valor específico.

Funciones Especiales: Incluye opciones como ‘wilds’, ‘scatters’ y rondas de bonificación que añaden una capa extra de emoción al juego.

Cada giro en Fruity Liner 5 es una oportunidad para sumergirse en un mundo de colores brillantes y sabores dulces, mientras se persiguen grandes premios.

Bonificaciones Exquisitas en PinUp Casino

Lo que realmente distingue a PinUp Casino son sus atractivas ofertas de bonificaciones. Cada viernes, los jugadores tienen la opción de elegir entre:

  1. 55 Giros Gratis: Perfecto para aquellos que desean extender su experiencia de juego en una variedad de tragamonedas.
  2. Bono del 90% hasta 370000 CLP: Ideal para jugadores que buscan maximizar sus depósitos y aumentar sus posibilidades de ganar a lo grande.

Estos bonos no solo ofrecen más oportunidades de juego, sino que también aumentan las posibilidades de ganar en juegos como Fruity Liner 5.

Un Mundo de Juegos y Posibilidades en PinUp Casino

Además de Fruity Liner 5, PinUp Casino ofrece una vasta selección de juegos para todos los gustos. Desde tragamonedas clásicas hasta las más modernas con gráficos en 3D, pasando por juegos de mesa como el blackjack, la ruleta y el póker, este casino en línea asegura que cada jugador encuentre su nicho de diversión.

Interfaz Amigable y Experiencia de Usuario Inigualable

La interfaz de PinUp Casino está diseñada pensando en el usuario. Es fácil de navegar y permite a los jugadores encontrar rápidamente sus juegos favoritos. Además, con su plataforma optimizada, PinUp garantiza una experiencia de juego fluida tanto en dispositivos móviles como en computadoras de escritorio.

Seguridad y Confianza: Prioridades de PinUp Casino

La seguridad es un aspecto crucial en PinUp Casino. Con tecnología de cifrado de última generación y políticas de privacidad rigurosas, los jugadores pueden estar seguros de que su información personal y financiera está protegida. Además, PinUp Casino cuenta con licencias de organismos de juego reconocidos, lo que garantiza un juego justo y responsable.

Atención al Cliente: Siempre Listos para Ayudar

Si surge alguna duda o problema, el equipo de atención al cliente de PinUp Casino está disponible 24/7. Ya sea a través de chat en vivo, correo electrónico o teléfono, los jugadores reciben asistencia rápida y efectiva, asegurando que su experiencia de juego sea lo más placentera posible.

¿Por Qué Elegir PinUp Casino?

PinUp Casino no es solo un lugar para jugar, es un destino para los amantes de los casinos en línea. Con una amplia gama de juegos, una interfaz amigable y segura, y bonificaciones que realmente valen la pena, este casino se posiciona como una elección principal para jugadores de todos los niveles.

En conclusión, Fruity Liner 5 en PinUp Casino ofrece una experiencia de juego fresca y emocionante. Con sus bonificaciones cada viernes, los jugadores tienen aún más razones para sumergirse en este mundo de diversión frutal. ¡Únete a la aventura y prueba tu suerte hoy mismo!

El cargo Fruity Liner 5 en PinUp: Dulzura y Ganancias apareció primero en Tecnovedosos.



source https://tecnovedosos.com/fruity-liner-5-pinup-dulzura-ganancias/

PixieFail: una serie de vulnerabilidades en la pila de red de Tianocore EDK2

vulnerabilidad

Si se explotan, estas fallas pueden permitir a los atacantes obtener acceso no autorizado a información confidencial o, en general, causar problemas

Los investigadores de seguridad de QuarksLab, dieron a conocer mediante una publicación de blog la noticia de que identificaron 9 vulnerabilidades en la interfaz UEFI basado en la plataforma abierta TianoCore EDK2, habitualmente utilizada en sistemas de servidores.

Bautizada como PixieFAIL, esta serie de vulnerabilidades están presentes en la pila de firmware de red utilizada para organizar el arranque de red (PXE) amenazando la explotación a nivel de firmware. La explotación exitosa, posible durante el proceso de inicio de la red, puede permitir llevar a cabo ataques de denegación de servicio, realizar fugas de información, ejecución remota de código, envenenar la caché de DNS y secuestrar sesiones de red.

Sobre PixieFail

Los investigadores de seguridad de QuarksLab mencionan que las vulnerabilidades más peligrosas permiten que un atacante no autenticado ejecute código remoto a nivel de firmware en sistemas que permiten el arranque PXE a través de una red IPv6.

Mientras que las vulnerabilidades menos graves pueden causar denegación de servicio (bloqueo de arranque), filtración de información, envenenamiento de la caché DNS y secuestro de sesión TCP. La mayoría de las vulnerabilidades pueden ser explotadas desde la red local, aunque algunas también pueden ser atacadas desde una red externa.

«Esto generalmente se hace en varias etapas, comenzando con un programa mínimo que se descarga desde un servidor de red usando un protocolo simple, como TFTP, que luego descarga y ejecuta una segunda etapa de arranque o la imagen completa del sistema operativo».

En su publicación de blog, detallan que el firmware UEFI basado en la plataforma TianoCore EDK2 se utiliza en muchas grandes empresas, proveedores de nube, centros de datos y clústeres informáticos. En particular, el módulo vulnerable NetworkPkg con implementación de arranque PXE se utiliza en firmware desarrollado por ARM, Insyde Software, American Megatrends, Phoenix Technologies ( SecureCore ), Intel, Dell y Microsoft.

También se creía que las vulnerabilidades afectaban a la plataforma ChromeOS, que tiene un paquete EDK2 en el repositorio, pero Google dijo que este paquete no se utiliza en el firmware para Chromebooks y que la plataforma ChromeOS no se ve afectada por el problema.

Un escenario de ataque típico implica monitorear el tráfico en una red local y enviar paquetes especialmente diseñados cuando se detecta actividad relacionada con el inicio del sistema a través de PXE. No se necesita acceso al servidor de descarga o al servidor DHCP. Como demostración de la técnica de ataque, se han publicado prototipos de exploits.

Vulnerabilidades identificadas:

  • CVE-2023-45230: Desbordamiento de búfer en el código del cliente DHCPv6, explotado al pasar un ID de servidor demasiado larga (opción ID de servidor).
  • CVE-2023-45234: se produce un desbordamiento del búfer al procesar una opción con parámetros de servidor DNS pasados ​​en un mensaje que anuncia la presencia de un servidor DHCPv6.
  • CVE-2023-45235: Desbordamiento del búfer al procesar la opción ID del servidor en mensajes de anuncio de proxy DHCPv6.
  • CVE-2023-45229: es un desbordamiento insuficiente de enteros que se produce durante el procesamiento de las opciones IA_NA/IA_TA en mensajes DHCPv6 que anuncian un servidor DHCP.
  • CVE-2023-45231: Se produce una fuga de datos fuera del búfer al procesar mensajes de redireccionamiento ND (descubrimiento de vecinos) con valores de opción truncados.
  • CVE-2023-45232: Se produce un bucle infinito al analizar opciones desconocidas en el encabezado Opciones de destino.
  • CVE-2023-45233: Se produce un bucle infinito al analizar la opción PadN en el encabezado del paquete.
  • CVE-2023-45236: uso de semillas de secuencia TCP predecibles para permitir la conexión TCP.
  • CVE-2023-45237: uso de un generador de números pseudoaleatorios poco confiable que produce valores predecibles.

Se menciona que las vulnerabilidades se presentaron al CERT/CC el 3 de agosto de 2023 y la fecha de divulgación estaba programada para el 2 de noviembre. Sin embargo, debido a la necesidad de un lanzamiento de parche coordinado entre varios proveedores, la fecha de lanzamiento se retrasó inicialmente hasta el 1 de diciembre, luego se retrasó hasta el 12 de diciembre y el 19 de diciembre de 2023, pero finalmente se reveló el hasta este mes de enero de 2024. Al mismo tiempo, Microsoft pidió posponer la publicación de información hasta mayo.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.



from Desde Linux https://ift.tt/kEFDenU
via IFTTT

Firefox 122 ya fue liberado y estás son sus novedades

Firefox Logo

Firefox es un popular navegador web

Hace poco Mozilla dió a conocer el lanzamiento de la nueva versión de Firefox 122, la cual viene con varias mejoras, tanto para la edición de escritorio así como también para la versión para Android.

En esta nueva versión de Firefox 122, Mozilla ha dado un pequeño guiño a los usuarios de Ubuntu, Debian y Linux Mint, así como también ha mejorado las sugerencias de búsqueda, ha implementado mejoras a las herramientas de desarrollo y más.

Principales novedades de Firefox 122

Firefox 122 presenta las sugerencias de búsqueda ampliadas, las cuales mientras el usuario escribe en la barra de direcciones muestra recomendaciones. Para los motores de búsqueda que proporcionan miniaturas además de descripciones de texto, el navegador ahora mostrará sugerencias visuales.

Otro de los aspectos destacados de esta nueva versión de Mozilla, es el lanzamiento de un repositorio oficial DEB para usuarios de Ubuntu, Debian y Linux Mint. Estos nuevos paquetes .deb incluyen mejoras en seguridad, privacidad y traducciones.

Al construir los paquetes, el compilador incluye optimizaciones adicionales, así como banderas para mejorar la seguridad. El paquete incluye un archivo .desktop para colocar un acceso directo en el escritorio y en el menú de distribución.

Además de ello, se destaca que en Firefox 122 WebRTC incluye soporte para el mecanismo ULPFEC de forma predeterminada, que permite recuperar paquetes dañados o perdidos.

También se destaca que se agregó el soporte para la API Screen Wake Lock, que permite que una aplicación web, como un reproductor multimedia, bloquee la llamada del protector de pantalla después de un largo período de inactividad del usuario.

Por otra parte, en Firefox 122 se ofrece la posibilidad de habilitar el mecanismo GPC que reemplaza el encabezado «DNT» (Do Not Track) y permite informar a los sitios que la venta de datos personales y su uso para rastrear preferencias o movimientos entre los sitios están prohibidos.

De los demás cambios que se destacan:

  • En Android se agregó la capacidad de configurar Firefox como el visor de PDF predeterminado.
  • Para mejorar la protección contra la identificación pasiva del usuario, el encabezado User-Agent ahora siempre está configurado en «Android 10», independientemente de la versión real de la plataforma.
  • Se ha implementado la API LargestContentfulPaint , que proporciona información sobre el tiempo que se tarda en dibujar la imagen o el texto más grande antes de que el usuario comience a interactuar con la página.
  • Se agregó soporte de API experimental:
    API declarativa Shadow DOM (habilitada a través de dom.webcomponents.shadowdom.declarative.enabled en about:config) para crear nuevas ramas en Shadow DOM.
  • API emergent (habilitada a través de dom.element.popover.enabled en about:config) para crear elementos de la interfaz de usuario para mostrarlos encima de otros elementos de la interfaz de usuario web.
  • Lector y escritor del portapapeles (habilitado a través de dom.events.asyncClipboard.clipboardItem, dom.events.asyncClipboard.readText y dom.events.asyncClipboard.writeText en about:config) que permite el uso de la interfaz ClipboardItem y los métodos read(), readText() y write().

¿Como instalar o actualizar la nueva versión de Firefox en Linux?

Como siempre, para aquellos que ya usan Firefox, simplemente pueden acceder al menú para actualizar a la última versión, es decir, los usuarios de Firefox que no hayan desactivado las actualizaciones automáticas recibirán la actualización automáticamente.

Mientras que para aquellos que no quieran esperar a que eso suceda, pueden seleccionar Menú> Ayuda> Acerca de Firefox después del lanzamiento oficial para iniciar una actualización manual del navegador web.

La pantalla que se abre muestra la versión actualmente instalada del navegador web y ejecuta una búsqueda de actualizaciones, siempre que la funcionalidad esté habilitada.

Otra opción para actualizar, es si eres usuario de Ubuntu, Linux Mint o algún otro derivado de Ubuntu, puedes instalar o actualizar a esta nueva versión con ayuda del PPA del navegador.

Este lo pueden añadir al sistema abriendo una terminal y ejecutando en ella el siguiente comando:

sudo add-apt-repository ppa:ubuntu-mozilla-security/ppa -y 
sudo apt-get update
sudo apt install firefox

El último método de instalación que fue añadido «Flatpak». Para ello deben contar con el soporte para este tipo de paquetes y la instalación de navegador se hace tecleando el siguiente comando en la terminal:

flatpak install flathub org.mozilla.firefox

En cuanto a los que ya cuentan con el navegador instalado, basta con ejecutar el siguiente comando para no solo actualizar Firefox, sino todas sus aplicaciones que tengan en formato Flatpak:

flatpak update

Para el caso de los que prefieren el uso de Snap, la instalación del navegador la pueden hacer tecleando el siguiente comando:

sudo snap install firefox

Y para actualizar las aplicaciones que tengamos instaladas en formato Snap, basta con teclear lo siguiente en la terminal:

sudo snap refresh


from Desde Linux https://ift.tt/ykPdJZi
via IFTTT

Firebird 5.0 ¿Que es?, novedades, mejoras y más

Firebird

Firebird es una base de datos relacional SQL

Después de dos años y medio de desarrollo se dio a conocer el lanzamiento de la nueva versión de Firebird 5.0, versión en la cual se presentan diversas mejoras, tales como mejoras de optimización, mejoras de soporte, asi como también nuevas funciones y paquetes integrados, entre otras cosas más.

Para quienes desconocen de Firebird, deben saber que esta es sistema de gestión de bases de datos relacionales SQL gratuito y de código abierto basado en la edición de código abierto InterBase 6.0. Desarrollado en C y C++, Firebird es compatible con las principales plataformas de hardware y software, incluidas Windows, Linux y Mac OS X. Firebird ofrece muchas funciones estándar ANSI SQL, permite operaciones OLTP y OLAP simultáneas a través de su arquitectura multigeneracional y admite procedimientos almacenados y activadores

Sobre Firebird

El Proyecto Firebird es un proyecto comercialmente independiente de programadores, asesores técnicos y partidarios de C/C++ que desarrollan y mejoran un sistema de gestión de bases de datos relacionales multiplataforma y dentro de sus características más importantes se destacan las siguientes:

  • Soporte completo de procedimientos almacenados y desencadenadores.
  • Transacciones totalmente compatibles con ACID
  • Integridad referencial
  • Arquitectura multigeneracional
  • Lenguaje interno con todas las funciones para procedimientos almacenados y activadores (PSQL)
  • Soporte para funciones externas (UDF)
  • Poca o ninguna necesidad de administradores de bases de datos especializados
  • Versión integrada de un solo archivo opcional: excelente para crear catálogos en CDROM, versiones de usuario único o
  • de evaluación de aplicaciones
  • Docenas de herramientas de terceros, incluidas herramientas administrativas GUI, herramientas de replicación, etc.
  • Multiplataforma
  • Copias de seguridad incrementales
  • Implementación completa del cursor en PSQL
  • Tablas de seguimiento

Principales novedades de Firebird 5.0

Esta nueva versión de Firebird 5.0 viene con varias mejoras y nuevas características clave, las cuales se destacan a continuación:

  1. Operaciones Multihilo: Firebird ahora puede ejecutar algunas tareas utilizando múltiples subprocesos en paralelo. Actualmente, se implementa la ejecución paralela para las tareas de barrido y creación de índices. Se admite la ejecución paralela para el barrido automático y manual. Para manejar una tarea con múltiples subprocesos, el motor ejecuta subprocesos de trabajo adicionales y crea archivos adjuntos de trabajo internos. De forma predeterminada, la ejecución paralela no está habilitada.
  2. Soporte para índices parciales: Se ha agregado soporte para índices parciales, que incluyen solo registros seleccionados que cumplen con las condiciones especificadas al crear el índice,´es decir, un índice ahora puede declarar una condición que define el subconjunto de registros que se indexarán.
  3. Nueva sintaxis: En las declaraciones SELECT WITH LOCK, UPDATE y DELETE se ha implementado la sintaxis «SKIP LOCKED», que permite omitir los registros para los cuales ya se ha establecido un bloqueo en el momento de enviar la consulta.
  4. Actualización en ODS: Se ha añadido la posibilidad de actualizar la base de datos a una última versión menor de ODS (13.1) sobre la marcha (inline update) sin crear y restaurar desde una copia de seguridad.
  5. Caché de declaraciones compiladas: se ha implementado una caché de declaraciones SQL compiladas, que se gestiona automáticamente. De forma predeterminada, el almacenamiento en caché está habilitado; el umbral de almacenamiento en caché lo define el parámetro MaxStatementCacheSize en firebird.conf. Se puede desactivar estableciendo MaxStatementCacheSize en cero. La caché se mantiene automáticamente y las declaraciones almacenadas en caché se invalidan cuando es necesario (generalmente cuando se ejecuta alguna declaración DDL).
  6. Interfaz de perfilado SQL y PSQL: Se ha añadido una interfaz para el perfilado de SQL y PSQL, permitiendo evaluar el tiempo de ejecución de cada consulta y acumular estadísticas. Se implementa con un paquete de sistema en el motor que pasa datos a un complemento de generación de perfiles.
  7. Retorno de Múltiples Filas con RETURNING: Se ha proporcionado la capacidad de devolver varias filas con la expresión RETURNING, si la expresión DML especificada afecta a varias filas.
  8. Nuevas funciones: Se han añadido nuevas funciones incorporadas, como UNICODE_CHAR y UNICODE_VAL, y se ha agregado el paquete de sistema RDB$BLOB_UTIL con operaciones de BLOB para módulos PSQL.
  9. Mejoras en el algoritmo de compresión: A partir de ODS 13.1, el motor utiliza un método de compresión RLE avanzado y con ello se ha mejorado el algoritmo de compresión de registros para lograr una compresión más eficiente de secuencias de datos repetitivas, reduciendo así la sobrecarga de almacenamiento. Esto mejora la compresión de campos VARCHAR largos (especialmente codificados en UTF8) que se rellenan sólo parcialmente.
  10. Soporte para cursores bidireccionales: Se ha añadido soporte para cursores bidireccionales (scrollable) al realizar acceso remoto a la base de datos.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.



from Desde Linux https://ift.tt/H5uv6g4
via IFTTT

KyberSlash, una vulnerabilidad que afecta el cifrado cuántico Kyber

vulnerabilidad

Si se explotan, estas fallas pueden permitir a los atacantes obtener acceso no autorizado a información confidencial o, en general, causar problemas

A mediados del 2020 compartimos aquí en el blog la noticia de los ganadores del concurso de «criptoalgoritmos resistentes a la selección en una computadora cuántica» y en ella se mencionaba al ganador del concurso, Kyber, el cual fue el mas adecuado para su promoción como estándar.

La razón de hablar de ello, es que hace poco se dio a conocer la noticia de que fue detectada una vulnerabilidad que afecta a Kyber. Esta vulnerabilidad bautizada como KyberSlash permite realizar ataques a través de canales laterales para reconstruir claves secretas, basándose en la medición del tiempo de operaciones durante el descifrado de un texto cifrado proporcionado por el atacante.

Se menciona que el problema afecta tanto a la implementación de referencia del mecanismo de encapsulación de claves CRYSTALS-Kyber KEM, asi como también a muchas bibliotecas de terceros que admiten Kyber, incluida la biblioteca pqcrypto utilizada en Signal (la app de mensajería instantánea).

El problema central de KyberSlash está relacionado con los ataques basados ​​en el tiempo. Estos ataques explotan la forma en que Kyber realiza ciertas operaciones de división en su proceso de descifrado. En particular, los atacantes pueden analizar el tiempo de ejecución de estas operaciones y obtener información secreta que podría comprometer el cifrado. Esta vulnerabilidad surge porque la cantidad de ciclos de CPU necesarios para la división en diferentes entornos varía según las entradas de la división.

La esencia de KyberSlash, radica en el uso de la operación de división «t = (((t < 1) + KYBER_Q/2)/KYBER_Q) & 1;» en el proceso de decodificación de un mensaje. , en el que el dividendo contiene el valor secreto «t» de tipo «doble» y el divisor es el conocido valor público KYBER_Q. El problema es que el tiempo de una operación de división no es constante y, en diferentes entornos, el número de ciclos de CPU realizados para la división depende de los datos de entrada. Así, a partir de los cambios en los tiempos de operación, uno puede hacerse una idea de la naturaleza de los datos utilizados en la división.

Para demostrar la vulnerabilidad, Daniel J. Bernstein, un experto en criptografía, logró preparar una demostración de trabajo que demuestra la posibilidad de llevar a cabo el ataque en la práctica. En dos de los tres experimentos realizados al ejecutar el código en una Raspberry Pi 2, se logró reconstruir completamente la clave secreta Kyber-512 basándose en la medición del tiempo de decodificación de datos.

El método también puede adaptarse para las claves Kyber-768 y Kyber-1024 y para que el ataque sea exitoso, el texto cifrado proporcionado por el atacante debe procesarse utilizando el mismo par de claves y se debe poder medir con precisión el tiempo de ejecución de la operación.

Además de ello, se menciona que se ha identificado otra variante en algunas bibliotecas (KyberSlash2), que también surge del uso de un valor secreto durante la ejecución de una división. Las diferencias con la primera variante se reducen a la llamada en la etapa de cifrado (en las funciones poly_compress y polyvec_compress), en lugar del descifrado. Sin embargo, la segunda variante puede ser útil para el ataque solo en casos de uso de la rutina en operaciones de reencriptación, donde la salida del texto cifrado se considera confidencial.

Actualmente, se están realizando esfuerzos para abordar estas vulnerabilidades, con varios proyectos y bibliotecas completamente parcheados o en proceso de parchearse. Es fundamental que los servicios que implementan Kyber actualicen sus implementaciones a las versiones parcheadas para protegerse contra estas vulnerabilidades, pues estas se consideran importantes porque potencialmente permiten la recuperación de claves secretas, lo que supone un riesgo para la seguridad de los proyectos de cifrado cuántico.

El impacto de KyberSlash depende de la implementación específica de Kyber y sus casos de uso. Por ejemplo, Mullvad VPN explicó que KyberSlash no afecta a su producto porque utiliza pares de claves únicos para cada nueva conexión de túnel, lo que hace imposible lanzar una serie de ataques sincronizados contra el mismo par.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.



from Desde Linux https://ift.tt/0lu2fTt
via IFTTT

Navegando en la Era Digital: Sobreviviendo al Spam de IA

Vivimos en una era donde la inteligencia artificial (IA) ya no es una herramienta exclusiva de las grandes empresas digitales. Herramientas como ChatGPT y Bard AI han democratizado la IA generativa, produciendo enormes cantidades de contenido digital. Sin embargo, este avance conlleva un coste: un flujo interminable de contenidos, algunos de los cuales son spam generado por IA.

De acuerdo con CyberGhost VPN , la proliferación de contenido generado por IA ha inundado Internet, dificultando distinguir entre información útil y spam. Este artículo explorará los tipos de contenido de IA que circulan en la red y los desafíos de esta saturación informativa. Aprende a navegar en este espacio digital abarrotado y a mantenerte a flote en la marea de contenidos generados por IA.

Desorden Digital: La Contaminación de la Nueva Era

La llegada del spam de IA ha transformado nuestra percepción del spam tradicional. Utilizando tecnología avanzada, estos mensajes adaptan y personalizan su contenido, haciéndolos difíciles de identificar como no humanos. A diferencia de los correos basura comunes, el spam de IA es más sofisticado, presentando un reto mayor en la identificación y filtrado.

El verdadero problema del spam de IA no es solo la recopilación de datos, sino la saturación constante de información. Esta sobrecarga informativa dificulta la capacidad para procesar y discernir información valiosa, afectando la eficiencia y claridad en la toma de decisiones digitales.

Con la accesibilidad de la tecnología de IA, cualquier persona puede generar contenidos , lo que ha provocado un aumento exponencial en la producción de contenidos digitales. Esta creación constante, a menudo sin supervisión humana, contribuye a la saturación y a la disminución de la calidad del contenido en línea.

Comprendiendo la Magnitud del Contenido Generado por IA

Es sorprendente saber que casi uno de cada cuatro autores en Estados Unidos utiliza IA para generar ideas para sus relatos. Netflix usa IA no solo para recomendaciones, sino también para optimizar miniaturas de películas y la calidad del streaming. Marcas como Nestlé y Mondelez también recurren a la IA para sus anuncios.

La participación de la IA en la creación de contenidos es vasta y creciente. Más de un tercio de las empresas en todo el mundo utilizan IA, y se espera que esta cifra aumente significativamente en los próximos años. Incluso los blogueros recurren a la IA para sus publicaciones, aprovechando su capacidad para procesar información a un ritmo superior al humano.

Sin embargo, distinguir entre textos de IA y contenido humano es cada vez más difícil. Un estudio reveló que más del 60% de las personas no pueden identificar el contenido generado por ChatGPT 4.0, lo que plantea múltiples problemas éticos y de veracidad.

Protege tu Información Personal

En un mundo saturado de spam de IA, la protección de tu información personal es crucial. Herramientas de ciberseguridad como las VPN, pueden proteger tu conexión con funciones de cifrado reforzado y prevención de fugas. Una VPN también oculta tu dirección IP real, protegiéndote de la localización por parte de la IA y ciberataques.

Cómo Detectar el Spam de IA

Detectar correos spam de IA puede ser desafiante. Estos mensajes suelen carecer de errores gramaticales y presentan una estructura más profesional, haciéndolos parecer más humanos. Algunas señales para identificarlos incluyen el uso de frases repetitivas, enlaces poco comunes y un tono inusualmente formal o informal.

Los sitios web falsos generados por IA son otro desafío. Estos sitios pueden parecer legítimos y producir contenidos sobre una amplia gama de temas, pero a menudo carecen de autenticidad y precisión. La falta de supervisión humana en estos sitios puede resultar en la difusión de información errónea o sesgada.

Finalmente, los anuncios generados por IA están revolucionando el marketing, permitiendo a las empresas ajustar sus campañas con gran precisión. Sin embargo, esto también puede llevar a una sobresaturación de anuncios y problemas de privacidad , ya que estos anuncios pueden parecer excesivamente personalizados y saber demasiado sobre el usuario.

Enfrentando los Retos del Spam de IA

La creciente presencia del spam de IA en nuestras vidas digitales plantea desafíos significativos. Desde la dificultad para distinguir entre contenido genuino y generado por IA hasta la preocupación por la privacidad y la seguridad de la información, es esencial estar informado y protegido. CyberGhost VPN nos recuerda la importancia de ser críticos con la información que consumimos y utilizar herramientas adecuadas para salvaguardar nuestra privacidad digital.

El cargo Navegando en la Era Digital: Sobreviviendo al Spam de IA apareció primero en Tecnovedosos.



source https://tecnovedosos.com/navegando-era-digital-sobreviviendo-spam-ia/

La importancia del reciclaje electrónico

En la actualidad, no hay nada que avance más rápido que la tecnología, día con día se dan nuevos inventos tecnológicos lo cual hace que las personas nos hagamos cada vez más dependientes de los mismos. La cantidad de dispositivos electrónicos utilizados al año ha crecido exponencialmente, por lo que la generación de residuos es un desafío ambiental que debe preocuparnos a todos. El reciclaje electrónico se ha vuelto una necesidad imperante en la sociedad moderna, por lo que en este artículo nombraremos los principales beneficios del reciclaje electrónico.

Beneficios ambientales

Reducción de desechos tóxicos y contaminación

Todos los dispositivos electrónicos que utilizamos, están hechos de materiales que contienen sustancias nocivas para la salud y el medio ambiente como el plomo, el mercurio y el níquel. Al reciclar estos dispositivos de manera correcta, no solo estamos contribuyendo a la conservación de los recursos, sino que además evitamos que estas sustancias tóxicas terminen en el agua, el suelo y en el aire y que dañen la salud y el bienestar de los seres vivos. 

Conservación de recursos naturales

El reciclar los dispositivos electrónicos contribuye a reducir de manera significativa la demanda de materias primas para la creación de estos. Al reutilizar estos dispositivos, podemos recuperar materiales valiosos como oro, plata, cobre y platino, reduciendo la extracción de estos recursos naturales de la tierra.

Ahorro de energía

Como se menciono anteriormente, para poder generar nuevos materiales electrónicos, no solo es necesario degradar el medio ambiente y poner en riesgo a la naturaleza, sino que además el procesamiento de estas materias primas requiere de cantidades exorbitantes de energía. El reciclaje electrónico evita que tengan que volverse a extraer estos recursos ahorrando energía en el proceso.

Beneficios sociales

Cumplimiento de normas

Actualmente existen muchas normas y legislaciones ambientales que promueven la conservación de los recursos y el reciclaje de los dispositivos electrónicos. Muchos países se han sumado a estas iniciativas y es fundamental que la población y las empresas se sumen para garantizar de manera efectiva prácticas electrónicas mas sostenibles.

Generación de empleos

Desde que se implementaron estas iniciativas de cuidado al medio ambiente y a la salud, han sido creadas muchas plantas de reciclaje de residuos electrónicos. Esto ha generado más empleos en la recolección, clasificación, desmontaje y procesamiento de equipos electrónicos. Cualquiera puede sumarse a esta causa y ganar dinero mientras se ayuda a la conservación del medio ambiente, por ejemplo, montar un negocio de desmontaje de dispositivos electrónicos es fácil pues solo se requiere contar con las herramientas necesarias para manipular los componentes de manera segura, con la ayuda de un par de destornilladores, diferentes tipos de pinzas y una pistola de aire caliente de buena calidad, este negocio puede montarse en la comodidad del hogar.

Estimulo a la innovación

Dado que los avances tecnológicos nunca se detienen, es importante que la investigación y el desarrollo de nuevas estrategias de conservación avancen a la par. El reciclaje electrónico requiere de nuevas técnicas y métodos más eficientes para la recuperación de materiales, así como el diseño de dispositivos y componentes electrónicos más sostenibles.

Sin duda, aún queda un largo camino por recorrer cuando de conservación ambiental se trata, pero al menos es tranquilizante saber que el reciclaje electrónico ya es una actividad fundamental para la conservación de los recursos, la reducción de contaminantes y el impacto positivo a la economía y sociedad.

El cargo La importancia del reciclaje electrónico apareció primero en Tecnovedosos.



source https://tecnovedosos.com/importancia-reciclaje-electronico/

Dónde Hacer Mejores Apuestas de Fútbol en México en 2024

El año 2024 ha sido testigo de una evolución significativa en el mundo de las apuestas de fútbol en México. Con una variedad de opciones disponibles, este artículo se enfoca en los mejores sitios para realizar apuestas de fútbol, considerando factores como la variedad de mercados, las cuotas, la seguridad y la experiencia del usuario.

1. 1xBet: La Elección Superior

  • Variedad de Mercados: 1xBet México sobresale por su extensa variedad de mercados de apuestas, incluyendo ligas mexicanas e internacionales.
  • Cuotas Competitivas: Ofrecen algunas de las mejores cuotas del mercado, maximizando las posibles ganancias.
  • Bonos y Promociones: Destacan por sus atractivas promociones y bonos específicos para apuestas de fútbol.
  • Experiencia del Usuario: La plataforma de 1xBet es intuitiva, facilitando la realización de apuestas tanto para principiantes como para apostadores experimentados.
  • Opciones de Apuestas en Vivo: Proporcionan una excelente plataforma de apuestas en vivo, con actualizaciones en tiempo real y la posibilidad de apostar durante los partidos.

2. Bet365: La Plataforma Global

  • Reconocimiento Internacional: Bet365 es conocido mundialmente por su solidez y confiabilidad en el mercado de apuestas.
  • Streaming en Vivo: Ofrecen la opción de ver partidos en vivo a través de su sitio web, una gran ventaja para los apostadores.
  • Interfaz Amigable: Su sitio web y aplicación móvil son fáciles de usar, lo que facilita la navegación y la realización de apuestas.
  • Variedad de Apuestas: Incluyen una amplia gama de tipos de apuestas, desde las tradicionales hasta opciones más complejas.

3. Caliente.mx: La Opción Local Preferida

  • Enfoque Local: Caliente.mx se centra en el mercado mexicano, ofreciendo cuotas y promociones específicas para los partidos locales.
  • Promociones y Bonos Locales: Regularmente ofrece promociones exclusivas para eventos de fútbol en México.
  • Atención al Cliente en Español: Su servicio de atención al cliente es en español, lo que es un gran beneficio para los usuarios mexicanos.
  • Apuestas en Vivo y Streaming: Disponen de una sólida plataforma de apuestas en vivo, complementada con opciones de streaming.

Comparativa y Consejos para Apostar

  • Evaluación de Cuotas: Compara las cuotas ofrecidas por diferentes sitios para asegurarte de obtener el mejor valor.
  • Consideraciones de Seguridad: Asegúrate de que el sitio esté regulado y tenga buenas prácticas de seguridad.
  • Gestión de Fondos: Es importante administrar tu presupuesto de apuestas de manera responsable.

Tendencias en Apuestas de Fútbol en 2024

  • Apuestas Móviles: La tendencia hacia las apuestas desde dispositivos móviles continúa creciendo, con aplicaciones más rápidas y seguras.
  • Mercados Innovadores: Los sitios de apuestas están introduciendo mercados de apuestas más creativos y variados.
  • Responsabilidad Social: Los mejores sitios promueven el juego responsable y ofrecen herramientas para gestionar el juego.

FAQ – Preguntas Frecuentes

  1. ¿Cómo seleccionar el mejor sitio para apostar en fútbol?
    1. Considera factores como la variedad de mercados, las cuotas, la facilidad de uso y la seguridad del sitio.
  2. ¿Es legal apostar en línea en México?
    1. Sí, es legal siempre y cuando el sitio esté regulado y licenciado por las autoridades competentes.
  3. ¿Qué debo hacer si tengo problemas con una apuesta?
    1. Contacta al servicio de atención al cliente del sitio donde realizaste la apuesta para resolver cualquier problema.

Conclusión

Hacer apuestas de fútbol en México en 2024 ofrece opciones emocionantes y variadas. Sitios como 1xBet, Bet365 y Caliente.mx destacan por su calidad de servicio, variedad de mercados y experiencias de usuario excepcionales. Siempre es importante apostar de manera responsable y elegir plataformas confiables y seguras.

El cargo Dónde Hacer Mejores Apuestas de Fútbol en México en 2024 apareció primero en Tecnovedosos.



source https://tecnovedosos.com/mejores-apuestas-futbol-mexico-2024/

2023, un año que con mucho movimiento para el open source 

2024

año 2024

Este 2023 represento un año con bastantes cambios, eventos importantes y destacados en el open source. Entre los tantos acontecimiento, novedades, lanzamientos, actualizaciones, sucesos, entre otras cosas, este artículo es una recopilación de todos esos eventos y noticias que considero fueron las más relevantes y de las cuales muchas de ellas hablamos aquí en el blog y en los otros blogs dónde también público.

Cabe mencionar que he tardado un poco en compartir el artículo, por diferentes cuestiones, pero considero que es un artículo bastante esencial que nos permite hacer un reencuentro de los hechos del 2023 en el mundo del open source.

Eventos y acontecimientos del 2023

De manera inicial y sin dudas, creo yo que el 2023 fue un año en el cual Red Hat dio mucho de que hablar y es que durante todo el año Red Hat se dedicó a realizar una gran cantidad de cambios que genero tanto criticas, como también la división de la comunidad. Y es que entre los cambios más importantes que realizo Red Hat fueron el cambio de CentOS Stream como la única fuente de RHEL, con lo cual básicamente dejo de publicar el código del paquete en el repositorio Git de CentOS y que genero una gran cantidad de críticas tanto de la comunidad, desarrolladores y también de Oracle, la SFC, entre otros.

Este movimiento género que distribuciones como AlmaLinux y Rocky Linux anunciaran cambios en sus procesos y que Oracle por su cuenta continuará distribuyendo el código fuente de su distribución Oracle Linux de forma gratuita y lo hará compatible con versiones anteriores de RHEL. Posterior a ello, SUSE también quiso colgarse del conflicto generado por RHEL y junto con Rocky Linux y Oracle crearon un repositorio compatible con RHEL y anuncio la creación de su propia bifurcación de RHEL.

Además de ello, en el 2023 Red Hat despidió y elimino el puesto de gerente de programas de Fedora, anunció el cese de la compilación de paquetes rpm con LibreOffice para RHEL y Fedora, asi como también anuncio la transición hacia Wayland y eliminado el servidor X.org y los componentes relacionados en RHEL.

Otro de los sucesos más relevantes desde 2023 fue la transición de muchos proyectos y distribuciones hacia Wayland, que claro no es un movimiento específico que se generó en el 2023, pero como tal el 2023 represento el punto de no retorno de migrar de X.org a Wayland, ya que desde indios del 2023 por ejemplo en Wine ya se anunciaba la promoción del soporte de Wayland para brindar la capacidad de usar Wine en entornos basados ​​​​en el protocolo Wayland sin el uso de componentes XWayland y X11, asi como también la transición de Lubuntu a Qt 6 y Wayland y en general el movimiento de comenzar a dar fin al soporte X11 en GNOME, KDE, Cinnamon, Fedora, Ubuntu, Raspberry OS entre otros, asi como también por parte de aplicaciones, tales como JetBrains en IntelliJ y OpenJDK IDE.

Por su parte, Google también dio mucho que hablar y es que el gigante se ganó una oleada de críticas en su intento de promover la API Web Integrity y su eliminación de Chromium en respuesta a los temores de la aparición de algo como DRM para la Web, asi como también la reciente resolución de litigios relacionados con violaciones de privacidad al “engañar” a los usuarios al hacerlos creer que no rastrearía la actividad en el modo incógnito.

Pero no todo el 2023 fue malo para Google, ya que el gigante de las búsquedas también realizo diversos aportes al open source que merecen ser mencionados en este articuló, ya que libero Buzzer el marco eBPF Fuzzing, la implementación de Passkeys, asi como también el envío una propuesta para Linux para mejorar la transferencia de datos de red entre dispositivos, la liberación de su tecnología de transferencia de datos Falcony el lanzamiento de su sistema de software y hardware Open Se Cura.

Por último y no menos importante, también Google lanzo durante todo el 2023 las versiones de Chrome/Chromium desde la versión 110 hasta la versión 120 con los respectivos lanzamientos de Chrome OS y sobre todo el lanzamiento de Android 14.

Finalmente, debo mencionar que esto no es todo y como mencione solo es una pequeña recopilación de los eventos más sonados. Por lo que en un próximo artículo le estaré dando continuidad.



from Desde Linux https://ift.tt/28gnu6z
via IFTTT

GitHub volvió a hacer de las suyas y su nueva víctima, el repositorio de OpenXRay

OpenXRay

OpenXRay es una versión mejorada de X-Ray Engine, el motor de juego utilizado en la mundialmente famosa serie de juegos STALKER

Desde que Microsoft adquirió GitHub, el proceso de bloqueo de repositorios se ha vuelto una burla, pues tal parece que cualquier persona con una solicitud bien elaborada, puede enviarla para solicitar el bloqueo hasta eliminación de un repositorio, es que las personitas a cargo de esta área en GitHub no hacen bien su trabajo.

Y es que desde dicha adquirió, hemos compartido aquí en el blog algunos de los casos más sonados en la red sobre el bloqueo de X repositorio de GitHub, que por mencionar uno de los que más hemos compartido es el del repositorio de youtube-dl y que en teoría desde el 2020, GitHub prometió trabajar para evitar bloqueos irrazonables, lo cual solo se quedo en promesas o al menos eso es lo que ha demostrado.

La razón de hablar de ello, es que hace poco el repositorio del proyecto abierto OpenXRay sufrió de un bloqueo de por parte de GitHub, esto debido a que GitHub recibió una solicitud de reclamación de derechos de autor, en la cual, la supuesta solicitud se mencionaba información sobre la violación de DMCA en nombre de la empresa GSC Game World, enviada por la división de protección antipiratería, actuando en interés de GSC, en la cual básicamente argumentaban que el proyecto OpenXRay viola los derechos de GSC.

Para poner en un poco del contexto a quienes desconocen de OpenXRay, deben saber que este es un proyecto que reproduce el motor del juego para las primeras partes del juego STALKER. Como tal, el proyecto nació después de una filtración de los códigos fuente del motor STALKER y como tal, el proyecto no es una copia «mas», pues a pesar de tener su base sobre el código fuente filtrado, podemos decir que es una versión mejorada, pues ha implementado correcciones en las deficiencias originales, ha introducido nuevas características, como soporte para plataformas de 64 bits, Linux y OpenGL, entre otras cosas más.

Ahora ya mencionado esto, muchos podrían entender el porqué de la «supuesta» solicitud, por parte de GSC Game World , que desarrolló la serie de juegos STALKER. En la cual se menciona que el repositorio contiene materiales obtenidos mediante ingeniería inversa que viola los derechos de autor y términos de uso.

Aviso de infracción de derechos de autor

Estimado github.com:

Yo, [privado] de Protección Antipiratería, me comunico con usted en nombre de GSC GAME WORLD GLOBAL LTD. Bajo pena de perjurio, certifico que estoy autorizado a actuar en nombre de GSC GAME WORLD GLOBAL LTD, el propietario de los derechos exclusivos sobre el juego de ordenador STALKER.

Una búsqueda ha detectado que su sitio web, github.com, proporciona acceso a archivos que infringen los derechos exclusivos de GSC GAME WORLD GLOBAL LTD sobre el juego de computadora STALKER. Creo de buena fe que el contenido de GSC GAME WORLD GLOBAL LTD que se describe anteriormente tiene no ha sido autorizado para su uso, publicación, intercambio o distribución en github.com por parte de GSC GAME WORLD GLOBAL LTD, su agente o la ley. Por lo tanto, le solicito que actúe con prontitud para eliminar o deshabilitar el acceso al contenido infractor identificado en este aviso, y que cese y desista de cualquier infracción adicional de las propiedades de GSC GAME WORLD GLOBAL LTD.

Afirmo que la información contenida en este aviso es precisa a mi leal saber y entender.

Propiedad GSC GAME WORLD GLOBAL LTD infringida:

Esta solicitud, no solo sorprendió a los desarrolladores dé OpenXRay, sino a también toda la comunidad, pues hasta cierto punto se tenía entendido un «acuerdo no firmado» (por asi llamarlo) pues siempre ha estado en duda, que GSC conocía el proyecto, pero no interfirió con su desarrollo, ya que para usar OpenXRay, se requieren recursos del juego de STALKER, que se puede obtener mediante la compra del juego original.

El repositorio estuvo bloqueado durante algunos días, hasta que en una actualización posterior, el Twitter oficial de GSC negó la iniciativa del bloqueo, indicando que la solicitud era falsa. Aseguran respaldo al proyecto OpenXRay y prometen investigar la situación, destacando que no es el primer intento de bloqueo de recursos de terceros no relacionados con la empresa.

Posterior a ello, GitHub anunció que levantaría el bloqueo tras una «verificación adicional», que mostraba que la solicitud se envió de manera fraudulenta y en la cual los desarrolladores del motor expresaron su agradecimiento a «GSC  por la rápida respuesta».

Finalmente, si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.



from Desde Linux https://ift.tt/YumwXWM
via IFTTT

Snoop 1.4 llega con mas sitios de búsqueda, mejoras de optimización y mas

snoop

Snoop es un trabajo de investigación (base de datos propia / bugbounty cerrado) en el campo de la búsqueda y procesamiento de datos públicos en Internet.

Hace pocos días se dio a conocer el lanzamiento de la nueva versión de Snoop 1.4, versión en la cual se ha implementado diversas mejoras de las cuales se destaca la que búsqueda se ha expandido a más sitios, se ha añadido más información a la CLI, se han integrado mejoras para Android y más.

El programa analiza varios sitios, foros y redes sociales para detectar la presencia del nombre de usuario que está buscando, es decir, le permite al usuario poder determinar en qué sitios hay un usuario con el apodo especificado.

El código está escrito en Python y se distribuye bajo una licencia que restringe el uso únicamente para uso personal. Al mismo tiempo, el proyecto es una rama del código base del proyecto Sherlock, suministrado bajo la licencia MIT (la bifurcación se creó debido a la imposibilidad de expandir la base de datos del sitio).

Actualmente, Snoop rastrea la presencia de un usuario en 2700 recursos de Internet en la versión completa y en los recursos más populares en la versión Demo.

Principales novedades de Snoop 1.4

En esta nueva versión que se presenta de Snoop 1.4 se destaca la ampliación de la base de datos, pues en este lanzamiento la lista de sitios de búsqueda se ha ampliado a 3716, lo que mejora la cobertura y la precisión de las búsquedas, se han implementado mejoras en el inicio en equipos antiguos con Windows/HDD y junto con ello también se destaca que se trabajó en la aceleración de la búsqueda, pues se ha logrado una aceleración del 140%. La velocidad de búsqueda por nombre de usuario en la base de datos completa de Snoop en el modo rápido ahora toma menos de 1 minuto, especialmente con una conexión a internet de al menos 12 Mbit/s.

Otro de los cambios que se destaca de esta nueva versión de Snoop 1.4  es la detección automática de codificaciones, ya que se ha agregado un nuevo algoritmo inteligente para la detección automática de codificaciones en sitios claramente no especificados, problemáticos o confusos al realizar búsquedas en varios modos.

También podremos encontrar que el contenido de la información de la CLI se ha ampliado al buscar en una base de datos reducida usando opciones de filtro, como ‘–site’, ‘–exclude’ o ‘–include’. Se muestra el número de sitios web al restringir la búsqueda entre corchetes a la derecha del número total de sitios en la base de datos.

Se han implementado mejoras en el informe HTML, como cambios en los estilos de los botones, líneas resaltadas y ampliadas en la lista de sitios al pasar el cursor, y una mayor visualización de títulos de bandas sonoras al pasar el cursor sobre ellos.

Además de ello, también se destacan las actualizaciones de complementos, pues en el complemento ‘ReverseVgeocoder’, la escala de cobertura/precisión en ubicaciones se ha incrementado entre 10 y 100 veces, se han añadido funciones como cambiar para filtrar datos por país, gráficos con estadísticas sobre países, regiones, objetos y proveedores, y nuevas capas como mapas topográficos, entre otros.

En Android, la búsqueda en modo verbalización se ha acelerado ligeramente, y se han activado todos los estilos al abrir informes HTML manualmente desde la GUI de FM, asi como también que se ha mejorado el formato de la información en la CLI para terminales pequeños o comprimidos, como por ejemplo en Termux.

De los demás cambios que se destacan:

  • Se corrigió la prueba automática de red en el modo de verbalización ‘–verbose/-v’ cuando las pruebas a veces fallaban debido a una falla.
  • Los complementos ‘GEO_IP/domain’ y ‘ReverseVgeocoder’ han sido actualizados, y se ha ampliado la visualización de datos en informes HTML en versiones completas de Snoop.
  • Se han eliminado las notificaciones sonoras sobre errores y finalización de búsqueda de la CLI.
  • Se han agregado versiones ligeras a la versión completa de Snoop, permitiendo un inicio casi instantáneo del software.

Si quieres conocer más al respecto debes saber que el proyecto se desarrolló sobre la base del trabajo de investigación en el campo del raspado de datos públicos, puedes consultar los detalles en el siguiente enlace.

Obtener Snoop

Finalmente para quienes estén interesados en poder obtener la herramienta, deben saber que se ofrecen compilaciones preparadas para Linux y Windows.

Para el caso de los que somos usuarios de Linux, podemos obtener Snoop de una forma bastante sencilla, solo debemos abrir una terminal y teclear:

git clone https://github.com/snooppr/snoop
cd ~/snoop

Y podremos instalar las dependencias con:

pip install --upgrade pip
python3 -m pip install -r requirements.txt

Y para conocer más al respecto sobre el funcionamiento de Snoop basta con teclear:

snoop -h



from Desde Linux https://ift.tt/XUVL0Oq
via IFTTT

Maestro, un kernel y un OS similar a Unix escrito desde cero en Rust

Maestro

screenshot de Maestro

Rust ha ganado suficiente popularidad a tal grado de que se ha convertido en uno de los elegidos para integrarse como lenguaje secundario en Linux, asi como también en otros sistemas operativos, tal es el caso de Android, que ya cuenta con parte de código en Rust, Windows que también le ha dado el visto bueno, entre otros.

Rust ha demostrado ser un lenguaje robusto y que ha generado tal confianza que incluso se han creado ya algunos sistemas operativos con este lenguaje de programación y solo por mencionar algunos tenemos a Redox, también tenemos a Kernels escritos desde cero como por ejemplo Kerla o el Kernel utilizado en el satélite que recientemente lanzo china.

La razón de mencionar esto, es que hace poco me encontré con una noticia que llamo mi atención y es que se presentó un proyecto en el cual se desarrolla un Kernel escrito en Rust y el cual es parcialmente compatible con Linux.

El nombre de este proyecto es «Maestro» y como se mencionó, es un kernel similar a Unix escrito en Rust implementando un subconjunto de llamadas al sistema del kernel de Linux suficientes para crear entornos de trabajo estándar. Como tal, el proyecto de «Maestro» no es algo nuevo, pues el desarrollador menciona que el proyecto nació en el año 2018, pero en ese momento estaba escrito en C y por las diferentes bondades y características de Rust, el proyecto fue reescrito desde cero.

En la página del proyecto se describen las razones del cambio:

En ese momento decidí cambiarme a Rust (mi primer proyecto en este lenguaje), lo que representó varias ventajas:

  • Reinicie el proyecto desde el principio, utilizando las lecciones aprendidas de errores anteriores.
  • Sea un poco más innovador que simplemente escribir un kernel similar a Linux en C. Después de todo, simplemente use Linux en ese momento.
  • Utilice la seguridad del lenguaje Rust para aprovechar algunas dificultades de la programación del kernel. El uso del sistema de escritura de Rust permite transferir parte de la responsabilidad sobre la seguridad de la memoria del programador al compilador.

En el desarrollo del kernel, la depuración es muy difícil por varias razones:

  • La documentación suele ser difícil de encontrar y las implementaciones del BIOS pueden tener fallas (más a menudo de lo que cree).
  • Al arrancar, el kernel tiene acceso total a la memoria y puede escribir donde no debería (su propio código, por ejemplo).
  • Solucionar problemas de pérdidas de memoria no es fácil. No se pueden utilizar herramientas como valgrind.
  • gdb se puede usar con QEMU y VMWare , pero el kernel puede tener un comportamiento diferente cuando se ejecuta en un emulador o máquina virtual diferente. Además, es posible que esos emuladores no sean compatibles con gdb (por ejemplo, VirtualBox ).
  • Faltan algunas funciones en el soporte para gdb en QEMU o VMWare y gdb puede incluso fallar en ocasiones

En relación con las características del proyecto, se destaca que el Kernel es monolítico y actualmente solo es compatible con sistemas x86 en modo de 32 bits. La base del código del kernel abarca cerca de 49 mil líneas, siendo ejecutable tanto en hardware real como en entornos virtualizados, como QEMU o VirtualBox.

En el desarrollo actual de «Maestro», se han implementado el 31% (135 de 437) de las llamadas al sistema Linux. Esto es suficiente para cargar un entorno de consola basado en Bash y la biblioteca C estándar Musl. Además, el entorno basado en Maestro puede ejecutar algunas utilidades de la suite GNU coreutils y una paquetería básica de cualquier sistema Unix. Actualmente, se está trabajando en la implementación de una pila de red y también se está trabajando en el desarrollo de un servidor X11, un administrador de paquetes, un cargador de arranque, un instalador y otras utilidades esenciales para construir un sistema operativo.

Entre las funciones disponibles de Maestro se destacan las siguientes::

  • Controladores para teclado y terminal PS/2 con modo texto y soporte parcial para secuencias ANSI.
  • Sistema de asignación de memoria con soporte para memoria virtual.
  • Programador de tareas basado en el algoritmo round-robin con soporte para señales POSIX.
  • Definición de dispositivos PCI.
  • Controlador IDE/PATA.
  • Sistema de archivos Ext2.
  • Soporte para sistemas de archivos virtuales /tmp y /proc.
  • Capacidad para montar particiones de disco FS, MBR y GPT.
  • Soporte de initramfs.
  • Controlador RTC para temporizador y hora precisa.
  • Soporte para cargar módulos del kernel.
  • Capacidad para ejecutar archivos ejecutables en formato ELF.

Para los interesados en poder conocer un poco más sobre el proyecto, pueden consultar los detalles en el siguiente enlace.  En cuanto a los interesados en el código del proyecto, deben saber que este se distribuye bajo la licencia MIT. 



from Desde Linux https://ift.tt/sGTlgRu
via IFTTT

ChromeOS 120 llega con nuevas funciones para Chromebooks, mejoras y mas

Portátil con chrome OS

ChromeOS​ es un sistema operativo basado en Linux diseñado por Google

Google dio a conocer hace poco la liberación de la nueva versión de «ChromeOS 120» en el canal estable y este nuevo lanzamiento llega cargado de una serie de características importantes, grandes mejoras y más.

Para quienes desconocen de Chrome OS, deben saber que el sistema está basado en el kernel de Linux, las herramientas de compilación ebuild/portage, los componentes abiertos y el navegador web Chrome

Principales novedades de Chrome OS 120

Sin dudas, uno de los aspectos más destacados de ChromeOS 120 es la nueva función «Self Share» para compartir archivos entre múltiples dispositivos del mismo usuario. Gracias a esta funcionalidad, los usuarios pueden transferir archivos automáticamente entre todos sus dispositivos conectados a la misma cuenta de Google. La recepción de datos se confirma automáticamente en todos los dispositivos Android o ChromeOS que estén vinculados a la misma cuenta de Google, incluso si la pantalla del dispositivo está apagada. La función se puede habilitar en «chrome://flags/#nearby-sharing-self-share»

Otro de los cambios que se destaca de ChromeOS 120, es el nuevo botón de «escritorio virtual» en la barra de tareas, para cambiar rápidamente entre escritorios virtuales, crear un nuevo escritorio, evaluar visualmente el contenido de los escritorios y agruparlos.

Además de ello, se destaca una nueva página » Personalizar teclas del teclado » que permite «Seleccionar un atajo para cada acción», eliminar, avanzar o retroceder página, finalizar, inicio e insertar, así como la capacidad de habilitar/usar F11 y F12 mediante combinaciones de teclas predefinidas.

También podremos encontrar una característica que nos muestra todos los detalles relevantes sobre las aplicaciones en «Configuración > Aplicaciones > Administrar tus aplicaciones» en la cual se muestra una nueva sección en la parte inferior de cada una que resalta donde se instaló la aplicación y qué tipo de aplicación es. Ya sea una aplicación de Android de Play Store, una aplicación web del sistema, una aplicación web que instaló a través de Chrome o una PWA de Google Play Store.

Por otra parte, la herramienta de captura de pantalla de ChromeOS recibió una actualización, con lo cual ahora, el usuario puede emplear fácilmente la función de arrastrar y soltar inmediatamente después de tomar una captura de pantalla, lo cual es más conveniente que pegar una captura de pantalla de manera convencional.

De los demás cambios que se destacan:

  • Se ha propuesto un nuevo diseño de interfaz para ingresar Emoji y GIF animados.
  • En las ventanas PIP se agregó el gesto de “pellizco” para ampliar o disminuir el tamaño de las ventanas flotantes con un simple movimiento.
  • La compatibilidad con el códec de vídeo MPEG4 Parte 2 y el contenedor de medios AVI ha quedado obsoleta.
  • Se añadió un indicador especializado para un mouse conectado externamente que tiene la capacidad de cambiar la forma en que se comportan los clics izquierdo y derecho en una Chromebook
  • Indicadores experimentales de controles multimedia mediante un widget que aparece en el área del estante para ayudar a controlar la reproducción.

Por último y no menos importante, Chrome OS 120 incluye la corrección de dos vulnerabilidades en el controlador para GPU PowerVR, causadas por el acceso a un área de memoria ya liberada, asi como también la solución a las vulnerabilidades: CVE-2023-7024 desbordamiento de búfer en WebRTC, CVE-2023-6508, CVE-2023-6509 de uso después de liberación en Media Stream y Side Panel Search y del kernel de Linux  CVE-2023-39191 en el subsistema eBPF.

Si quieres conocer más al respecto sobre esta nueva versión del sistema, puedes consultar los detalles dirigiéndote al siguiente enlace.

Descargar Chrome OS 120

La nueva build ya está disponible para la mayoría de las Chromebooks actuales, además de que desarrolladores externos han formado versiones para computadoras comunes con procesadores x86, x86_64 y ARM.

Por último y no menos importante, si eres usuario de Raspberry debes saber que también puedes instalar Chrome OS en tu dispositivo, solo que la versión que puedas encontrar no es la más actual además de que aún se tiene el problema con la aceleración de video por hardware.



from Desde Linux https://ift.tt/EY5sA8Q
via IFTTT

En PyPI la autenticación de dos factores ya es obligatoria para todos

2fa

2FA es un método de seguridad de administración de identidad y acceso que requiere dos formas de identificación

Después de año y medio de trabajo y de algunos cambios graduales, por fin se ha presentado la autenticación obligatoria por medio de 2FA de manera general para todos los usuarios en PyPI, ya que desde mediados del 2022 los desarrolladores del repositorio de paquetes Python PyPI (Python Package Index) anunciaron ruta para la transición a la autenticación obligatoria de dos factores para paquetes críticos.

Un año después de dicho anuncio (en junio del 2023) se implementó la autenticación obligatoria de dos factores para todas las cuentas de usuario que mantenían en ese momento, al menos un proyecto o eran parte de una organización que selecciona paquetes para el uso obligatorio de la autenticación de dos factores.

Y ahora, la introducción de la autenticación obligatoria de dos factores se ha aplicado a todos los usuarios en general, por lo cual al no habilitar la autenticación de dos factores, el usuario ahora no podrá cargar archivos ni realizar acciones relacionadas con la gestión de su proyecto.

Esta publicación es un reconocimiento al arduo trabajo que se realizó para hacer esto realidad y un agradecimiento a todos los usuarios que habilitaron 2FA en sus cuentas.

También es un recordatorio para aquellos que aún no han habilitado 2FA, que deberán hacerlo antes de poder realizar cualquier acción de administración o cargar archivos en PyPI.

Una vez que 2FA esté habilitado, podrá realizar acciones de administración, incluida la generación de tokens API o la configuración de editores confiables (preferido) para cargar archivos.

Como se ha señalado en artículos previos, los desarrolladores del repositorio de paquetes Python PyPI han destacado la importancia de implementar la autenticación de dos factores. Esta medida se introduce con el propósito de mejorar la seguridad en el proceso de desarrollo y proteger los proyectos contra posibles cambios maliciosos originados por la filtración de credenciales. La autenticación de dos factores proporciona una capa adicional de protección, mitigando riesgos asociados al uso de contraseñas compartidas, la vulnerabilidad de contraseñas en sitios comprometidos, ataques al sistema local del desarrollador o tácticas de ingeniería social.

La necesidad de fortalecer la seguridad radica en la amenaza significativa de accesos no autorizados debido a la apropiación de cuentas. Este tipo de ataque representa un riesgo considerable, ya que, en caso de éxito, los atacantes podrían introducir cambios maliciosos en otros productos y bibliotecas que dependen del paquete comprometido. Por ende, la autenticación de dos factores se presenta como una medida esencial para salvaguardar la integridad y la confianza en el ecosistema de desarrollo de software en Python, previniendo potenciales consecuencias negativas derivadas de accesos no autorizados y cambios malintencionados en proyectos fundamentales.

Además de ello, los desarrolladores mencionan que la autenticación de dos factores preferida se basa en un esquema que emplea tokens de hardware compatible con la especificación FIDO U2F y el protocolo WebAuthn. Este método se destaca por proporcionar un nivel de seguridad más elevado en comparación con la generación de contraseñas de un solo uso. Los tokens de hardware, alineados con FIDO U2F y WebAuthn, ofrecen una capa adicional de protección, mejorando la seguridad en el proceso de autenticación.

Además de los tokens de hardware, existe la opción de utilizar aplicaciones de autenticación que generan contraseñas de un solo uso y admiten el protocolo TOTP (Time-Based One-Time Password). Ejemplos de estas aplicaciones incluyen Authy, Google Authenticator y FreeOTP. Estas aplicaciones proporcionan otra alternativa segura para la autenticación de dos factores.

Al descargar paquetes, se recomienda encarecidamente a los desarrolladores que utilicen el método de autenticación denominado ‘Editores de Confianza’. Este método se basa en el estándar OpenID Connect (OIDC) o utiliza tokens de API. La elección de este enfoque ayuda a fortalecer la seguridad en las interacciones y transacciones relacionadas con la descarga de paquetes, proporcionando un nivel adicional de confianza mediante la autenticación de los editores involucrados.

Finalmente, si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.



from Desde Linux https://ift.tt/Ox6fJv2
via IFTTT

¡Crea tus propias aplicaciones portables AppImage con AppImageTool!

AppImageTool: ¿Cómo construir nuestras propias apps AppImage?

AppImageTool: ¿Cómo construir nuestras propias apps AppImage?

La fragmentación o abundancia de alternativas en Linux siempre suele ser algo relevante, positivo o no, en la Comunidad Linuxera. Por ello, siempre estamos inmersos, tanto como creadores/consumidores de contenidos como usuarios profesionales o no, en las múltiples noticias, novedades y sucesos relacionados con las muchas Distribuciones GNU/Linux, Aplicaciones, Sistemas, Plataformas y más. Y por supuesto que también, en las muchas Guías rápidas y Completos tutoriales posibles para aprender o resolver problemas y necesidades.

Por ello, y pensando en ambas cosas, hoy les traemos una muy útil Guía rápida para lograr crear nuestras propias apps AppImage utilizando otra herramienta adicional llamada «AppImageTool». La cual, es un utilitario de software alternativo o complementario a Pkg2AppImage, que en una anterior publicación también enseñamos a utilizar para lograr el mismo objetivo. Ya que, cuando hablamos de aplicaciones universales y portables, entre Flatpak, Snap y AppImage, muchos solemos preferir a este último formato, y más si de forma fácil y rápida podemos crear nosotros mismos las aplicaciones y juegos portables necesarios, a partir de los archivos fuentes y binarios existentes de desarrollos ya existentes.

Pkg2appimage: ¿Cómo construir nuestros propios archivos AppImage?

Pkg2appimage: ¿Cómo construir nuestros propios archivos AppImage?

Pero, antes de iniciar la lectura de esta publicación sobre qué la útil y complementaria aplicación del proyecto AppImage llamada «AppImageTool», les recomendamos la anterior publicación relacionada con la app similar previamente mencionada y abordada:

¡Crea tus propias aplicaciones portables AppImage con AppImageTool!

AppImageTool: ¿Cómo construir nuestras propias apps AppImage?

¿Qué es AppImageTool?

Según sus propios desarrolladores del Proyecto AppImage en su sitio web oficial, la aplicación «AppImageTool» es descrita brevemente de la siguiente forma:

AppImageTool es una herramienta que le permite generar archivos AppImage. Una AppImage es un paquete autoejecutable que contiene una aplicación y todo lo que necesita para una ejecución exitosa, de forma tal de que, si no se encuentran en el sistema operativo donde serán ejecutadas, entonces no haya problemas. Esto puede incluir archivos de librerías que no suelen estar disponibles en los sistemas de destino, recursos como traducciones, iconos, fuentes y otros archivos auxiliares (dependencias).

AppImageTool hace que sea fácil tomar una AppDir - LinuxDeployQt

En fin, AppImageTool hace que sea fácil tomar una AppDir (Estructura normalizada de una aplicación) al estilo de LinuxDeployQt, para convertirla en una aplicación AppImage.

Esta herramienta de implementación de Linux, toma una aplicación como entrada y la hace autónoma copiando los recursos que utiliza la aplicación (como bibliotecas, gráficos y complementos) en un paquete. El paquete resultante se puede distribuir como AppDir o como AppImage a los usuarios, o se puede colocar en paquetes de distribución cruzada. Sobre LinuxDeployQt en GitHub

Pasos para crear una aplicación AppImage

Para nuestra guía rápida de hoy, utilizaremos el juego Urban Terror 4 para aprender a convertir una aplicación con binarios ejecutables y toda su paquetería asociada en una aplicación universal y portátil con el formato AppImage mediante AppImageTool.

Y los pasos necesarios son los siguientes:

  • Descargar la aplicación AppImageTool: Directamente de su sitio web oficial en GitHub. Y para ello, hemos descargado el ejecutable AppImage en su última versión estable disponible en la adecuada arquitectura de nuestro sistema operativo y ordenador, cuyo nombre es appimagetool-x86_64.AppImage. Y luego, de la forma acostumbrada, CLI o GUI, le hemos dado permiso de ejecución.
  • Descargar la aplicación a convertir: En nuestro caso, como ya expresamos, descargamos la última versión disponible del juego Urban Terror 4, cuyo nombre es UrbanTerror434_full.zip. Y luego, procedemos a descomprimir el archivo para obtener la carpeta de nombre UrbanTerror43.
  • Adecuación del directorio de la aplicación a convertir: Para el caso de Urban Terror 4, antes de ejecutar el proceso de conversión hemos borrado aquellos archivos que consideramos innecesarios, los cuales corresponden a los binarios incluidos para Windows, la arquitectura i386 y su modo Servidor. Es decir, solo dejamos el ejecutable para la arquitectura x86_64 llamado originalmente Quake3-UrT.x86_64, y que hemos renombrado simplemente como UrT4. Nota: Para cada aplicación puede ser necesario borrar distintos archivos o ninguno. O mover, crear o añadir algunos.
  • Creación de archivos necesarios para la conversión: Para llevar a cabo de forma exitosa la conversión debemos crear y disponer de mínimo 3 archivos que corresponden a:

Archivos necesarios

Un archivo AppRun cuyo contenido es:

#!/bin/bash

cd "$(dirname "$0")"
exec ./UrT4

Un archivo .desktop cuyo contenido es:

[Desktop Entry]
Type=Application
Exec=AppRun
Icon=UrT4
Name=Urban Terror 4
Terminal=false
StartupNotify=true
Comment=Juego FPS UrT4
Categories=Game;

Por último, un archivo de imagen correspondiente al icono de la aplicación y del futuro archivo AppImage. Que en nuestro caso práctico de hoy, llamaremos UrT4.png.

Y ya luego de que tengamos todo en orden y listo, procedemos a ejecutar nuestra orden de comando de conversión, tal como lo indican en el sitio web oficial: ./appimagetool-x86_64.AppImage AppDir. Sin embargo, para el caso de nuestra aplicación se hace necesario el agregar el prefijo siguiente: ARCH=x86_64. Por lo que, nuestra orden de comando final fue la siguiente:

ARCH=x86_64 ./appimagetool-x86_64.AppImage UrbanTerror43

Y si hemos realizado todo con cuidado y con éxito tendremos lista nuestra aplicación llamada Urban_Terror_4-x86_64.AppImage ubicado en la misma carpeta donde estemos trabajando la conversión, por ejemplo: Descargas. Tal como se muestra en los siguientes pantallazos:

Pasos para crear una aplicación AppImage - 01

Pasos para crear una aplicación AppImage - 02

Imagen de Resumen para post 2024

Resumen

En resumen, «AppImageTool» junto a Pkg2AppImage, son sin duda alguna, 2 herramientas de software bien útiles y versátiles que podría usar cualquiera sobre su actual Distro GNU/Linux, para aprender a crear y disfrutar de sus propias aplicaciones portables en el formato de AppImage. Sin embargo, en el futuro, sería genial poder contar con una aplicación de escritorio, es decir, gráfica (con interfaz visual), que automatice y facilite aún más dicho proceso. Por ello, si ya has usado antes alguna de estas 2 u otras similares con el mismo fin, te invitamos vía comentario a contarnos tu experiencia con ellas, en beneficio de todos y la realización de una futura publicación sobre las posibles nuevas mencionadas.

Por último, recuerda visitar nuestra «página de inicio» en español. O, en cualquier otro idioma (con solo agregar al final de nuestra URL actual, 2 letras al final, por ejemplo: ar, de, en, fr, ja, pt y ru, entre muchas otras) para conocer más contenidos actuales. Además, te invitamos a unirte a nuestro canal oficial de Telegram para leer y compartir más noticias, guías y tutoriales de nuestra web. Y también, al siguiente Canal alternativo de Telegram para aprender más sobre el Linuxverso en general.



from Desde Linux https://ift.tt/5fAH3Su
via IFTTT