Abril 2023: Lo bueno, malo e interesante del Software Libre

Abril 2023: Lo bueno, malo e interesante del Software Libre

Abril 2023: Lo bueno, malo e interesante del Software Libre

Hoy, penúltimo día de «abril 2023», como de costumbre, al final de cada mes, les traemos este pequeño compendio, con algunas de las más destacadas publicaciones de dicho periodo.

Para que disfruten y compartan más fácilmente algunas de las mejores y más relevantes informaciones, noticias, tutoriales, manuales, guías y lanzamientos, de nuestra web. Y de otras fuentes confiables, como la web DistroWatch, la Fundación para el Software Libre (FSF), la Iniciativa de Código Abierto (OSI) y la Fundación Linux (LF).

Introducción del Mes

De manera tal, de que puedan más fácilmente mantenerse al día en el ámbito del Software Libre, Código Abierto y GNU/Linux, y otros ámbitos relacionados con la actualidad tecnológica.

Publicaciones del Mes

Resumen de abril 2023

Dentro de DesdeLinux en abril 2023

Buenas

Malas

Interesantes

Top 10: Publicaciones recomendadas

  1. Abril 2023: Acontecer informativo del mes sobre GNU/Linux: Resumen noticioso sobre GNU/Linux, el Software Libre y el Código Abierto del mes en curso que empieza. (Ver)
  2. Sage: Una plataforma web de IA para usar chatbots en Linux: Sage es un servicio web de IA que permite a cualquiera crear, implementar y gestionar chatbots de manera rápida y sencilla. (Ver)
  3. Debian 12 RC1: ¡Ya disponible para todos, Debian Bookworm!: El 03 de abril se nos ha anunciado oficialmente de la disponibilidad de una primera ISO de pruebas para Debian 12 RC1. (Ver)
  4. GPTGO.AI: Un útil buscador en línea con IA vía ChatGPT: Un sitio web cuyo objetivo es la búsqueda en línea al más puro estilo de Google.com, pero combinando la misma, con ChatGPT gratis. (Ver)
  5. Chrome 112 llega con mejoras de seguridad, dice adiós a Chrome Apps y más: Además de las innovaciones y la corrección de errores, se han corregido 16 vulnerabilidades en esta versión. (Ver)
  6. Script LPI SOA: Haz tu app Linux de mantenimiento y actualización: Script gráfico de Bash Shell que funciona como una app de Software Libre que emula un tradicional Asistente Técnico Virtual. (Ver)
  7. Mejores apps libres, abiertas y gratuitas para Linux en el 2023: Una útil propuesta con un Top 10 de mejores apps por categorías que serían geniales tener presentes en una Distro GNU/Linux. (Ver)
  8. Firefox 112.0 introduce mejoras de rendimiento: Esta nueva versión presenta mejoras de rendimiento, y muchas otras, como la posibilidad de restaurar la sesión anterior usando un atajo. (Ver)
  9. Libreboot 20230413 ya fue liberado y estas son sus novedades: Una versión de corrección de errores relativa a Libreboot 20230319. (Ver)
  10. LXQt 1.3 ya fue liberado y aún no se realiza el salto a Qt 6: Esta nueva versión aún se basa en la última versión LTS del marco Qt 5.15. (Ver)

Fuera de DesdeLinux

Fuera de DesdeLinux en abril 2023

Lanzamientos de Distros GNU/Linux según DistroWatch

  1. ExTiX 23.4: 03/04/2023.
  2. OpenBSD 7.3: 10/04/2023.
  3. 4MLinux 42.0: 10/04/2023.
  4. FreeBSD 13.2: 11/04/2023.
  5. TrueNAS 22.12.2 «SCALE»: 12/04/2023
  6. Tiny Core Linux 14.0: 12/04/2023.
  7. EuroLinux 8.8 Beta: 13/04/2023.
  8. Deepin 20.9: 18/04/2023.
  9. Fedora 38: 18/04/2023.
  10. Ubuntu 23.04 original y sus ediciones Mate, Kubuntu, Budgie: 20/04/2023.
  11. Ubuntu 23.04 Cinnamon, Studio, Xubuntu, Edubuntu, Unity, Lubuntu y Kylin: 21/04/2023.
  12. Voyager Live 23.04: 21/04/2023.
  13. Manjaro Linux 22.1.0: 22/04/2023.
  14. BlendOS 2023.04.22: 22/04/2023.
  15. Peropesis 2.1: 26/04/2023.

Para profundizar más información sobre cada uno de estos lanzamientos y otros más, haga clic en el siguiente enlace.

Últimas Noticias de la Fundación para el Software Libre (FSF / FSFE)

  • La FSFE está ayudando a construir una «Internet de los humanos»: ¿Cómo están dando forma a nuestro futuro las innovaciones tecnológicas emergentes? ¿Cómo será la Internet del futuro? La Free Software Foundation Europa (FSFE) cree que el software libre es la clave para una Internet accesible, abierta, transparente y diversa que respete los derechos humanos en los espacios digitales. Por ello, desde 2018, la FSFE es socia de diversos proyectos que forman parte de la iniciativa Next Generation Internet (NGI) de la Comisión Europea para hacer realidad este sueño. (Ver)

Para profundizar más, sobre esta información y otras noticias del mismo periodo, haga clic en los siguientes enlaces: FSF y FSFE.

Últimas Noticias de la Iniciativa de Código Abierto (OSI)

  • Los contenedores pueden ser más seguros con Código Abierto: La adopción de contenedores se está disparando, gracias al código abierto. La mayoría de los proyectos y herramientas para la gestión de contenedores en el ecosistema nativo de la nube son de código abierto. Sin embargo, según el Informe de contenedores de 2022, la cantidad de vulnerabilidades en los contenedores públicos está aumentando: el 60 % de los principales contenedores públicos tienen más vulnerabilidades que hace un año. Pero, a medida que el uso del código abierto se extienda, esto puede mejorar. (Ver)

Para profundizar más, sobre esta información y otras noticias del mismo periodo, haga clic en el siguiente enlace.

Últimas Noticias de la Organización Fundación Linux (FL)

  • La Fundación Linux anuncia el lanzamiento de la Fundación TLA+: Esta nueva fundación busca promover la adopción y el desarrollo del lenguaje de programación TLA+ y su comunidad de practicantes de TLA+. Sus miembros inaugurales incluyen a Amazon Web Services (AWS), Oracle y Microsoft. TLA+ es un lenguaje de alto nivel para modelar programas y sistemas, especialmente simultáneos y distribuidos. Y es muy útil para verificar sistemas de software complejos, reduciendo errores y mejorando la confiabilidad. (Ver)

Para profundizar más, sobre esta información y otras noticias del mismo periodo, haga clic en los siguientes enlaces: Fundación Linux, en inglés; y la Fundación Linux Europa, en español.

Resumen: Publicaciones varias

Resumen

En resumen, esperamos que este pequeño y útil compendio de noticias” con lo más destacado dentro y fuera del Blog «DesdeLinux» para este segundo mes del año, «abril 2023», sea un gran aporte al mejoramiento, crecimiento y difusión de las «tecnologías libres y abiertas».

Si te ha gustado esta publicación, no dejes de comentarla y de compartirla con otros. Y recuerda, visitar nuestra «página de inicio» para explorar más noticias, además de unirte a nuestro canal oficial de Telegram de DesdeLinux, o este grupo para más información sobre el tema de hoy.



from Desde Linux https://ift.tt/CmaUJpv
via IFTTT

Linux 6.3 llega con mejoras compatibilidad, rtla hwnoise, Rust y mas

Tux, la mascota del Kernel de Linux

El kernel de Linux es el elemento principal de los sistemas operativos (SO) Linux, y es la interfaz fundamental entre el hardware de una computadora y sus procesos.

Hace pocos días Linus Torvalds dio a conocer el lanzamiento de la nueva versión de Linux 6.3 que llega cargada de un montón de características nuevas, cambios y correcciones de errores.

De los cambios más importantes que podremos encontrar en esta nueva versión de Linux 6.3, es la integración continua del soporte del lenguaje Rust, un lenguaje de programación que tiene como objetivo proporcionar una seguridad y un rendimiento óptimos, soporte inicial para los procesadores Meteor Lake de 14.ª generación de Intel asi como tambien el soporte inicial para la interfaz del controlador para Steam Deck, la consola portátil de Valve que usa Linux como su sistema operativo y mucho más.

Principales novedades de Linux 6.3

En esta nueva versión que se presenta de Linux 6.3 de las funciones más interesantes que podremos encontrar son para las GPU AMD RDNA3 y las CPU AMD Ryzen Zen 2, asi como la compatibilidad con el modo Smart Access Memory (SAM) que permite que el procesador acceda a toda la memoria de la GPU.

Tambien se destaca la compatibilidad con Snapdragon 8 Gen 2 y otros SoC de Qualcomm más nuevos, que se utilizan en teléfonos inteligentes y tabletas con Android, mejoras de audio para la PC torre HP EliteDesk 800 G6 y la estación de trabajo Dell Precision 3260, asi como tambien mejor soporte para la HP Elitebook, la portátil para juegos HP OMEN 16-n0xxx.

Otro de los cambios que se destaca de Linux 6.3 es que elimina la compatibilidad con el compilador clásico Intel C/C++ (ICC), que no se ha actualizado durante tres años, así como varios controladores DRM obsoletos. También mejora la compatibilidad con las unidades de procesamiento (DPU) BlueField de NVIDIA, que son tarjetas de red inteligentes que pueden ejecutar aplicaciones en paralelo con la CPU.

Otra de las características importantes que se ha agregado a Linux 6.3 es la nueva herramienta rtla hwnoise, la cual es una herramienta para detectar y cuantificar el ruido relacionado con el hardware. Recupera el resumen periódico del rastreador de osnoise en ejecución con las interrupciones deshabilitadas. Al deshabilitar las interrupciones y la programación de subprocesos, solo se permite el ruido relacionado con las interrupciones y el hardware no enmascarables. De acuerdo con la descripción realizada por los mantenedores de la herramienta, esta última también permite configuraciones de trazadores de ruido y la recopilación de la salida del trazador. En suma,

En principio, el ruido del hardware debería ser cero en el sistema operativo Linux. Sin embargo, resulta que esto no siempre es así. En el funcionamiento del sistema operativo, uno puede enfrentarse a dos fuentes principales de ruido. Ruidos de las operaciones del sistema operativo y ruidos relacionados con el hardware. En el contexto de la computación de alto rendimiento (HPC), por ejemplo, el ruido del sistema operativo (osnoise) se refiere a la interferencia experimentada por una aplicación debido a actividades dentro del sistema operativo.

Ademas de ello, en el mecanismo de secuencias reiniciables se ha agregado la posibilidad de pasar identificadores de ejecución paralelos (memory-map concurrency ID) identificados con el número de CPU a los procesos.

De los demas cambios que se destacan:

  • En los sistemas con procesadores basados ​​en la arquitectura RISC-V, se ha implementado el uso de instrucciones «ZBB» para agilizar las operaciones de cadenas.
  • Para sistemas basados ​​en la arquitectura del conjunto de instrucciones LoongArch (usado en los procesadores Loongson 3 5000 e implementando un nuevo RISC ISA similar a MIPS y RISC-V), soporte para la aleatorización del espacio de direcciones del kernel (KASLR), reubicación del kernel en la memoria (reubicación ), tope de puntos de hardware y mecanismo kprobe.
  • El mecanismo DAMOS (Data Access Monitoring-based Operation Schemes) , que le permite liberar memoria en función de la frecuencia de acceso a la memoria, admite filtros para excluir ciertas áreas de la memoria del procesamiento en DAMOS
  • La biblioteca C estándar mínima Nolibc implementa soporte para la arquitectura s390 y el conjunto de instrucciones Arm Thumb1 (además de soporte para ARM, AArch64, i386, x86_64, RISC-V y MIPS).
  • Objtool se ha optimizado para acelerar las compilaciones del kernel y reducir el consumo máximo de memoria durante las compilaciones (al compilar el kernel en modo «allyesconfig», no hay problemas con la terminación forzada de procesos en sistemas con 32 GB de RAM).
  • Se ha interrumpido la compatibilidad con el ensamblado del núcleo por parte del compilador Intel ICC, que ha estado fuera de servicio durante mucho tiempo y nadie ha expresado su deseo de solucionarlo.
  • En Btrfs, para reducir la fragmentación de grupos de bloques, las extensiones se dividen por tamaño al asignar bloques, es decir, cualquier grupo de bloques ahora está limitado a extensiones pequeñas (hasta 128 KB), medianas (hasta 8 MB) y grandes.
  • El mecanismo memfd, que le permite identificar un área de memoria a través de un descriptor de archivo pasado entre procesos, se ha agregado la capacidad de crear áreas en las que la ejecución de código está prohibida (memfd no ejecutable) y es imposible establecer derechos de ejecución en el futuro.
  • Se ha agregado una nueva operación PR_SET_MDWE prctl para bloquear los intentos de incluir derechos de acceso a la memoria que permitan escribir y ejecutar al mismo tiempo.
  • Para los sistemas basados ​​en ARM64, se ha agregado un nuevo destino de compilación «virtconfig» que, cuando se selecciona, activa solo el conjunto mínimo de componentes del kernel necesarios para iniciar los sistemas de virtualización.
  • Se agregó soporte para filtrar llamadas al sistema usando el mecanismo seccomp para la arquitectura m68k.
  • Se agregó compatibilidad con los dispositivos CRB TPM2 (Command Response Buffer) integrados de los procesadores AMD Ryzen basados ​​en la tecnología Microsoft Pluton.
  • Se ha agregado un nuevo parámetro sysctl default_rps_mask, a través del cual puede establecer la configuración predeterminada de RPS (Receive Packet Steering), que es responsable de distribuir el procesamiento del tráfico entrante entre los núcleos de la CPU en el nivel del controlador de interrupciones.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los demás detalles en el siguiente enlace.



from Desde Linux https://ift.tt/YhLltpO
via IFTTT

Detectaron vulnerabilidades en Git que permiten sobrescribir archivos o ejecutar código

vulnerabilidad

Si se explotan, estas fallas pueden permitir a los atacantes obtener acceso no autorizado a información confidencial o, en general, causar problemas

Se dio a conocer el lanzamiento de las nuevas versiones correctivas de mantenimiento de Git v2.40.1, junto con versiones de mantenimiento para versiones anteriores v2.39.3, v2.38.5, v2.37.7, v2.36.6, v2.35.8,
v2.34.8, v2.33.8, v2.32.7, v2.31.8 , y v2.30.9, esto debido a que dada a conocer información de que fueron identificadas cinco vulnerabilidades en Git.

El lanzamiento de estas versiones de mantenimiento son con la finalidad de abordar los problemas de seguridad identificados como CVE-2023-25652, CVE-2023-25815 y CVE-2023-29007.

Sobre las vulnerabilidades de Git

La vulnerabilidad CVE-2023-29007 permite la sustitución de configuraciones en el archivo de configuración $GIT_DIR/config, que se puede usar para ejecutar código en el sistema especificando rutas a archivos ejecutables en las directivas core.pager, core.editor y core.sshCommand.

La vulnerabilidad se debe a un error lógico debido a que los valores de configuración muy largos pueden tratarse como el comienzo de una nueva sección al cambiar el nombre o eliminar una sección de un archivo de configuración.

En la práctica, la sustitución de los valores de explotación se puede lograr especificando direcciones URL de submódulos muy largas que se guardan en el archivo $GIT_DIR/config durante la inicialización. Estas URL se pueden interpretar como nuevas configuraciones cuando se intenta eliminarlas a través de «git submodule deinit».

Otra de las vulnerabilidades, es CVE-2023-25652 que permite sobrescribir el contenido de los archivos fuera del árbol de trabajo al procesar parches especialmente diseñados con el comando «git apply –reject«. Si intenta ejecutar un parche malicioso con el comando «git apply» que intenta escribir en un archivo a través de un enlace simbólico, la operación será rechazada.

Por su parte, la vulnerabilidad CVE-2023-25815: cuando Git se compila con soporte de prefijo de tiempo de ejecución y se ejecuta sin mensajes traducidos, todavía usaba la maquinaria gettext para mostrar mensajes, que posteriormente potencialmente buscaban mensajes traducidos en lugares inesperados. Esto permitió colocación maliciosa de mensajes manipulados.

En Git 2.39.1, la protección contra la manipulación de enlaces simbólicos se ha ampliado para bloquear parches que crean enlaces simbólicos e intentan escribir a través de ellos. La esencia de la vulnerabilidad en cuestión es que Git no tuvo en cuenta que el usuario puede ejecutar el comando «git apply –reject» para escribir las partes rechazadas del parche como archivos con la extensión «.rej» y el atacante puede utilice esta función para escribir el contenido en un directorio arbitrario, en la medida en que lo permitan los derechos de acceso actuales.

Además, se han solucionado tres vulnerabilidades que aparecen solo en Windows:

  • CVE-2023-29012: (busca el ejecutable doskey.exe en el directorio de trabajo del repositorio al ejecutar el comando «Git CMD», que permite organizar la ejecución de su código en el sistema del usuario)
  • CVE-2023 -25815: desbordamiento de búfer al procesar archivos de localización personalizados en gettext. Esta vulnerabilidad afecta a los usuarios que trabajan en máquinas Windows a las que otras partes que no son de confianza tienen acceso de escritura. Por lo general, todos los usuarios autenticados tienen permiso para crear carpetas en C:\, lo que permite que actores maliciosos inyecten mensajes incorrectos en git.exe.
  • CVE-2023-29011: posibilidad de sustituir el archivo connect.exe cuando se trabaja a través de SOCKS5. La ubicación del archivo de configuración de connect.exe está codificada en una ruta que generalmente se interpreta como C:\etc\connectrc, que es susceptible de manera similar a la anterior.

Como solución alternativa para protegerse contra las vulnerabilidades, se recomienda evitar ejecutar el comando «git apply –reject» cuando se trabaja con parches externos no verificados y verificar el contenido de $GIT_DIR/config antes de ejecutar los comandos «git submodule deinit«, «git config –rename-section» y «git config –remove-section» cuando se trata de repositorios que no son de confianza.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

Para los interesados en seguir el lanzamiento de las actualizaciones de los paquetes en distribuciones, pueden hacerlo en las páginas de DebianUbuntuRHELSUSE/openSUSEFedoraArchFreeBSD.



from Desde Linux https://ift.tt/2F9sB0o
via IFTTT

GCC 13.1 ya fue liberado y estas son sus novedades

gcc

El GNU Compiler Collection es un conjunto de compiladores creados por el proyecto GNU. GCC es software libre y lo distribuye la Free Software Foundation bajo la licencia general pública GPL

Después de un año de desarrollo, se dio a conocer el lanzamiento del popular sistema de compilación «GCC 13.1«, siendo este el primer lanzamiento significativo en la nueva rama GCC 13.x.

Bajo el nuevo esquema de numeración de versiones, se usó la versión 13.0 durante el desarrollo, y poco antes del lanzamiento de GCC 13.1, la rama GCC 14.0 ya estaba bifurcada, a partir de la cual se formará la próxima versión importante de GCC 14.1.

Principales novedades de GCC 13.1

En esta nueva versión que se presenta de GCC 13.1 se destaca que se adoptó una interfaz para crear programas en el lenguaje de programación Modula-2, que admite el código de construcción que se ajusta a los dialectos PIM2, PIM3 y PIM4, así como al estándar ISO aceptado para ese idioma.

Ademas de ello, tambien se destaca que se ha añadido al árbol de fuentes de GCC, un frontend con la implementación del compilador del lenguaje Rust preparado por el proyecto gccrs (GCC Rust). En la vista actual, la interfaz está marcada como experimental y deshabilitada de forma predeterminada. Una vez que la interfaz esté lista (lo que se espera en la próxima versión), el kit de herramientas GCC estándar se puede usar para compilar programas Rust sin necesidad de instalar el compilador rustc creado con desarrollos LLVM.

Link-in-Step Optimization (LTO) agrega soporte para un servidor de trabajos (jobserver) mantenido por el proyecto GNU make para optimizar la ejecución de compilaciones paralelas en varios subprocesos. En GCC, el servidor de trabajo se utiliza para paralelizar el trabajo durante la optimización LTO en el contexto de todo el programa (WPA, análisis de programa completo).

Otro de los cambios que se destaca, es que se implementó la capacidad de generar diagnósticos en formato SARIF basado en JSON. El nuevo formato se puede utilizar para obtener resultados de análisis estáticos (GCC -fanalyzer), así como para obtener información sobre advertencias y errores. La habilitación se realiza con la opción «-fdiagnostics-format=sarif-stderr|sarif-file|json-stderr|json|json-file«, donde las opciones con «json» dan como resultado una variante específica de GCC del formato JSON.

Se implementaron algunas características definidas en el estándar C23 C, como la constante nullptr para definir punteros nulos, facilitando el uso de listas con un número variable de argumentos (variadic), ampliando las capacidades de las enumeraciones, el atributo noreturn, permitiendo el uso de constexpr y auto al definir objetos, typeof y typeof_unqual, nuevas palabras clave alignas, alignof, bool, false, static_assert, thread_local y true, permitiendo paréntesis vacíos en la inicialización.

libstdc++ ha mejorado el soporte experimental para los estándares C++20 y C++23, como agregar soporte para el archivo de encabezado <format> y std::format, expandir las capacidades del archivo de encabezado <ranges>, agregar punto flotante adicional tipos, implementando <experimental/scope> y <experimental/synchronized_value>.

De los demás cambios que se destacan de esta nueva versión:

  • Se agregaron nuevos atributos de función para documentar que un descriptor de archivo se pasa en una variable entera: «__attribute__((fd_arg(N)))», «__attribute__((fd_arg_read(N)))» y «__attribute__((fd_arg_write(N)) )) «.
  • Los atributos especificados se pueden usar en un analizador estático (-fanalyzer) para detectar el trabajo incorrecto con descriptores de archivos.
  • Se ha agregado un nuevo atributo » __attribute__((assume(EXPR))) » que se puede usar para decirle al compilador que una expresión es verdadera y el compilador puede usar ese hecho sin evaluar la expresión.
  • Se ha agregado compatibilidad con las CPU STAR-MC1 (star-mc1), Arm Cortex-X1C (cortex-x1c) y Arm Cortex-M85 (cortex-m85) al backend de la arquitectura ARM.
  • Se agregó soporte para los procesadores Intel Raptor Lake, Meteor Lake, Sierra Forest, Grand Ridge, Emerald Rapids, Granite Rapids y AMD Zen 4 (znver4) al backend x86.
  • Se han implementado las extensiones de arquitectura del conjunto de instrucciones AVX-IFMA, AVX-VNNI-INT8, AVX-NE-CONVERT, CMPccXADD, AMX-FP16, PREFETCHI, RAO-INT y AMX-COMPLEX propuestas en los procesadores Intel.
  • Para C y C++ en sistemas con SSE2, se proporciona el tipo __bf16.
  • El backend de generación de código para las GPU AMD Radeon (GCN) implementa la capacidad de usar los aceleradores AMD Instinct MI200 para mejorar el rendimiento de OpenMP/OpenACC.
  • Vectorización mejorada usando instrucciones SIMD.
  • Las capacidades de back-end para la plataforma LoongArch se han ampliado significativamente.
    Se agregó soporte para CPU T-Head XuanTie C906 (thead-c906) en el backend RISC-V.
  • Compatibilidad implementada para controladores de vectores definidos en la especificación RISC-V Vector Extension Intrinsic 0.11.
  • Se agregó soporte para 30 extensiones de especificación RISC-V.
  • La compatibilidad con el formato de depuración DWARF se implementa en casi todas las configuraciones.
  • Se agregó la opción «-gz=zstd» para comprimir la información de depuración usando el algoritmo Zstandard.
  • Se eliminó la compatibilidad con el modo obsoleto de compresión de información de depuración «-gz=zlib-gnu».

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.



from Desde Linux https://ift.tt/RiJ3qMc
via IFTTT

Cómo deshabilitar el historial de ChatGPT y las razones para hacerlo de inmediato

ChatGPT ha incorporado una reciente función de privacidad para resguardar la información de los usuarios. Dicha función permitirá a los usuarios desactivar su historial de chat y evitar que sus datos sean utilizados para entrenar y perfeccionar los modelos de inteligencia artificial .

Para aclararlo, si desactivas esta opción, el contenido compartido con ChatGPT no se empleará para mejorar el modelo, lo que implica que las conversaciones se conservarán durante 30 días antes de ser eliminadas del sistema de OpenAI.

Antes, la única manera de impedir que tus datos se compartieran con el modelo y, por ende, con la empresa, era cancelar la suscripción mediante un formulario vinculado en uno de los artículos de OpenAI sobre su política de privacidad. Ahora, desactivar el uso compartido de datos es mucho más sencillo y accesible.

Así lo explica la compañía:

Cuando el historial de chat está desactivado, conservaremos las conversaciones nuevas durante 30 días y las revisaremos únicamente cuando sea necesario para supervisar el abuso, antes de eliminarlas de forma permanente.

Cómo desactivar el historial de ChatGPT, paso a paso

Esta nueva función surge después de la suspensión temporal en Italia el mes pasado debido a posibles violaciones de privacidad. OpenAI fue informado de que podría reanudar el servicio en el país si mejoraba la protección del usuario y permitía desactivar el historial de ChatGPT para evitar el procesamiento de sus datos.

Desde entonces, OpenAI ha reafirmado su compromiso con la seguridad y la protección, declarando que “continuará mejorando las medidas de seguridad a medida que evolucionen nuestros sistemas de IA”.

Cómo desactivar el historial de ChatGPT, paso a paso

Para modificar la configuración y evitar que se almacene tu historial de chat, debes:

  • Iniciar sesión en tu cuenta de ChatGPT.
  • Hacer clic en los tres puntos junto a tu dirección de correo electrónico cerca de la esquina inferior izquierda de la pantalla.
  • Luego, hacer clic en ‘Configuración’, se mostrará otra ventana (‘Control de Datos’) donde puedes desactivar la opción ‘Historial de chat’.
  • Puedes revertir esta decisión presionando el botón ‘Habilitar historial de chat’.

En realidad, si tus conversaciones con ChatGPT se conservan durante un mes, esta funcionalidad no parece ser muy útil. Al final, la empresa se basa en estas conversaciones para seguir mejorando su chatbot, pero si se activa una función para proteger la privacidad de los usuarios, debería eliminarse de inmediato cualquier interacción que tengas con este.

El cargo Cómo deshabilitar el historial de ChatGPT y las razones para hacerlo de inmediato apareció primero en Tecnovedosos.



source https://tecnovedosos.com/deshabilitar-historial-chatgpt/

StableLM, una alternativa de código abierto a ChatGPT

StableLM

StableLM y está diseñado para generar texto y código de manera eficiente

Se dio a conocer la noticia de que Stability AI, la compañía detrás del modelo de IA de generación de imágenes Stable Diffusion, ha anunciado el primero de su conjunto de modelos de lenguaje StableLM.

Con ello Stability espera repetir los efectos de su modelo de síntesis de imágenes de código abierto Stable Diffusion, lanzado en 2022. Con refinamiento, StableLM podría usarse para construir una alternativa de código abierto a ChatGPT.

Para quienes desconocen de Stability AI, deben saber que esta es una empresa con sede en Londres que se posiciona como un rival de código abierto de OpenAI, una empresa que desarrolla modelos de lenguaje artificial potentes pero patentados, como ChatGPT.

Sobre StableLM

StableLM es el nombre de la familia de modelos de lenguaje artificial creados por Stability AI, que están disponibles como código abierto en GitHub bajo la licencia Creative Commons BY-SA-4.0StableLM es un modelo de generación de texto que puede componer texto humano y escribir programas al predecir la siguiente palabra en una secuencia. Utiliza una técnica llamada «predicción de fichas» que implica adivinar el siguiente fragmento de palabra del contexto proporcionado por un humano en forma de “indicación”.

Al igual que otros LLM «pequeños» StableLM afirma lograr un rendimiento similar al modelo de referencia GPT-3 de OpenAI mientras usa muchos menos parámetros generales (7 mil millones para StableLM contra 175 mil millones para GPT-3).

StableLM afirma tener un rendimiento similar al de GPT-3, el modelo de lenguaje que impulsa a ChatGPT, mientras usa muchos menos parámetros (7 mil millones frente a 175 mil millones). Los parámetros son variables que el modelo usa para aprender de los datos de entrenamiento. Tener menos parámetros hace que el modelo sea más pequeño y más eficiente, lo que puede facilitar su ejecución en dispositivos locales como teléfonos inteligentes y computadoras portátiles.

StableLM se entrenó en un nuevo conjunto de datos basado en The Pile, que contiene 1,5 billones de tokens, que es aproximadamente 3 veces el tamaño de The Pile. The Pile es un conjunto de datos diverso y de alta calidad para entrenar modelos de lenguaje.

Stability AI menciona que las plantillas ya están disponibles en el repositorio de GitHub y que próximamente estará publicado un informe técnico completo y espera seguir colaborando con desarrolladores e investigadores a medida que implementa la suite StableLM.

Además, mencionan que lanzara el programa RLHF de colaboración abierta y trabajara con los esfuerzos de la comunidad, como Open Assistant, para crear un conjunto de datos de código abierto para los asistentes de IA.

Por último y no menos importante, hablando de lanzamientos de Stability AI, también podemos destacar que anunció el lanzamiento beta de SDXL (que significa Stable Diffusion Extra Large), un nuevo modelo de inteligencia artificial capaz de generar imágenes a partir de descripciones textuales. SDXL es la última incorporación a la suite Stable Diffusion, que también incluye modelos SD, SDT y SDC.

SDXL se diferencia de otros modelos en su tamaño y capacidades. Con 2300 millones de parámetros, SDXL es más de 2,5 veces más grande que el modelo SD original, que tenía solo 890 millones. Estos parámetros adicionales permiten que SDXL genere imágenes que respeten mejor las pautas complejas. Por ejemplo, SDXL puede producir texto legible en imágenes o crear retratos de personajes ficticios con un realismo sorprendente.

SDXL se encuentra actualmente en versión beta en DreamStudio y otras aplicaciones de imágenes populares, como NightCafe Creator. Como todos los modelos Stability AI, SDXL pronto se lanzará como código abierto para una accesibilidad óptima. Stability AI anuncia que SDXL ofrece una licencia permisiva para uso comercial y no comercial, siempre que siga las pautas éticas y legales.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.



from Desde Linux https://ift.tt/2CpUqOb
via IFTTT

Llega la nueva version del sistema de compilacion QBS 2.0

QbS

Qbs es un sistema de automatización de compilación independiente del idioma impulsado por la comunidad. Es rápido y ofrece un lenguaje fácil de aprender basado en QML.

Hace poco se dio a conocer el lanzamiento de la nueva versión de Qbs 2.0, el cual es un software gratuito y de código abierto multiplataforma para administrar el proceso de creación de software. Fue diseñado para admitir proyectos grandes y complejos, escritos en varios lenguajes de programación, principalmente C/C++

La nueva versión 2.0 es significativa en el número de versión, ya que está asociado con la implementación de un nuevo backend de JavaScript, que reemplazó a QtScript, que quedó obsoleto en Qt 6.

Para quienes desconocen de Qbs, deben saber que este utiliza una versión simplificada del lenguaje QML para definir secuencias de comandos de compilación de proyectos, lo que permite definir reglas de compilación bastante flexibles en las que se pueden conectar módulos externos, se pueden usar funciones de JavaScript y se pueden crear reglas de compilación arbitrarias.

Qbs es único en el sentido de que no tiene ningún mecanismo para las compilaciones internas, lo que garantiza la capacidad de crear varias compilaciones a partir de un solo árbol de fuentes, incluida la compilación a partir de una única invocación de comando y en paralelo.

Esta es una característica clave, que garantiza que los archivos de origen no se vean afectados si se elimina un directorio de compilación y que no se escriben artefactos de salida en el directorio de origen. Para construir Qbs, se requiere Qt como dependencia, aunque Qbs en sí mismo está diseñado para organizar el ensamblaje de cualquier proyecto.

El lenguaje de secuencias de comandos utilizado en Qbs está adaptado para automatizar la generación y el análisis de secuencias de comandos de compilación por parte de los IDE. Además, Qbs no genera archivos MAKE y, sin intermediarios como la utilidad make, controla el lanzamiento de compiladores y enlazadores, optimizando el proceso de compilación en función de un gráfico detallado de todas las dependencias.

La presencia de datos iniciales sobre la estructura y las dependencias en el proyecto le permite paralelizar efectivamente la ejecución de operaciones en varios hilos. Para proyectos grandes que consisten en una gran cantidad de archivos y subdirectorios, el rendimiento de las reconstrucciones que usan Qbs puede superar varias veces a make: la reconstrucción es casi instantánea y no hace que el desarrollador pierda tiempo esperando.

Principales novedades de QBS 2.0

Este nuevo lanzamiento de QBS 2.0 es notable como ya se menciono al inicio, debido al nuevo motor de JavaScript que llega a suplir QtScript el cual quedo obsoleto para Qt 6, ya que se consideró poco realista continuar manteniendo QtScript por sí solo debido a enlaces complejos a JavaScriptCore.

La perspectiva de mantener QtScript con su compleja dependencia no parecía particularmente atractiva. Sin embargo, ninguno de los candidatos ofreció una API para interceptar los accesos a la propiedad, algo que los desarrolladores mencionan que necesitan absolutamente por razones de rendimiento.

Desde el punto de vista del usuario, no debería haber cambios notables; en particular, el rendimiento parece ser casi el mismo. Sin embargo, QtScript fue bastante indulgente al aceptar valores indefinidos en contextos en los que no tenía que hacerlo, por lo que la nueva implementación podría descubrir algunas fallas en sus proyectos

El motor es compatible con la especificación ES2019 y supera significativamente a sus homólogos existentes en rendimiento (XS en un 35 %, DukTape en más de dos veces, JerryScript en tres veces y MuJS en siete veces). Desde el punto de vista del desarrollo de scripts de compilación, la transición a un nuevo motor no debería generar cambios notables.

El rendimiento también se mantendrá casi igual. De las diferencias, existen requisitos más estrictos en el nuevo motor para el uso de valores nulos, lo que puede revelar problemas en proyectos existentes que pasaron desapercibidos al usar QtScript.

Ademas de ello, tambien se menciona que se eliminaron archivos de proyecto qmake, lo que se tradujo en una reducción de trabajo de mantenimiento para los desarrolladores.

Finalmente se menciona que la versión 2.1 verá una reescritura del código con lo cual los desarrolladores presumen que se tendrán varias características nuevas, asi como mejoras en general en el rendimiento.

Si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.



from Desde Linux https://ift.tt/GzFbVJx
via IFTTT

Resurrección de dinosaurios: ¿un sueño científico inalcanzable?

En algún momento de nuestras vidas, probablemente nos hemos preguntado: ¿podríamos resucitar a los dinosaurios? Y si es posible, ¿cómo sería reintroducirlos en la biosfera actual? Resulta que un paleontólogo de la Universidad Estatal de Ohio se planteó las mismas interrogantes, basándose en aspectos genéticos. William Ausich sostiene que el secreto radica en el material genético preservado hasta nuestros días.

Si pudiéramos secuenciar completamente su genoma, reflexionaba el experto, ¿qué tan complicado sería hacer que un triceratops coexistiera con los elefantes? Después de años de investigación, esta fue la conclusión a la que arribó.

Resucitar a las criaturas prehistóricas

Para resucitar a los dinosaurios, Ausich explica que lo primero que necesitaríamos es obtener su ADN completo. Desde el principio, esto plantea un desafío, ya que el material genético se deteriora con el tiempo. Especialmente si han transcurrido 65 millones de años, el período en el que estas criaturas prehistóricas gobernaron la Tierra.

Para que estas bestias del pasado distante vuelvan a respirar, sería necesario reparar los fragmentos dañados de su material genético. Aunque algunos fósiles conservan valiosas evidencias de ADN, es complicado hallar secuencias íntegras.

Resucitar a las criaturas prehistóricas
Esqueleto de Tiranosaurio.

Además, las partes blandas del cuerpo de los dinosaurios fueron consumidas por otras especies contemporáneas en su época. Los restos que no fueron devorados por otros animales prehistóricos se descompusieron con el tiempo, lo que nos deja únicamente sus huesos.

Entonces, ¿podríamos resucitar a los dinosaurios?

Dado que solo contamos con fragmentos disponibles de estas criaturas prehistóricas, resucitar a los dinosaurios parece ser un sueño lejano. Aunque el código genético de estas especies fuera compatible con los animales actuales, argumenta Ausich, ese extraño híbrido no sería realmente un dinosaurio.

Por el contrario, sería precisamente eso: un híbrido entre un animal extinto y uno contemporáneo. Así que, en resumen, lamentablemente no podemos resucitar a los dinosaurios. Y sí, es desalentador, porque ¿a quién no le gustaría ver a un ictiosaurio surcando los océanos?

Sin embargo, compañías privadas como Colossal Biosciences están haciendo esfuerzos significativos para resucitar especies que los humanos empujamos hacia la extinción. Tigres de Tasmania y mamuts lanudos se encuentran entre sus proyectos más ambiciosos, todos financiados por la CIA, por cierto. Pero, en la lista de posibles resurrecciones, los dinosaurios aún no aparecen. Al menos, no por ahora.

El cargo Resurrección de dinosaurios: ¿un sueño científico inalcanzable? apareció primero en Tecnovedosos.



source https://tecnovedosos.com/resurreccion-dinosaurios/

PyPI ya permite publicar paquetes sin estar vinculado a contraseñas y tokens

PyPI

PyPI es el repositorio de software oficial para aplicaciones de terceros en el lenguaje de programación Python.

Hace pocos días se dio a conocer la noticia de que el repositorio de paquetes Python PyPI (Python Package Index) ya brinda la capacidad de usar un nuevo método seguro para publicar paquetes, lo que elimina la necesidad de almacenar contraseñas fijas y tokens de acceso a la API en sistemas externos (por ejemplo, en GitHub Actions).

El nuevo método de autenticación tiene como nombre‘ Editores de confianza ‘ y está diseñado para resolver el problema de la publicación de actualizaciones maliciosas como resultado de sistemas externos comprometidos y contraseñas o tokens predefinidos que caen en manos equivocadas.

A partir de hoy, los mantenedores de paquetes de PyPI pueden adoptar un método de publicación nuevo y más seguro que no requiere contraseñas de larga duración ni tokens de API para compartir con sistemas externos.

Se menciona que este nuevo método de autenticación confiere importantes ventajas de usabilidad y seguridad en comparación con los otros métodos de autenticación tradicionales de PyPI:

  • Usabilidad: con la publicación confiable, los usuarios ya no necesitan crear manualmente tokens de API en PyPI y copiarlos y pegarlos en su proveedor de CI. El único paso manual es configurar el editor en PyPI.
  • Seguridad: los tokens API normales de PyPI son de larga duración, lo que significa que un atacante que comprometa el lanzamiento de un paquete puede usarlo hasta que su usuario legítimo se dé cuenta y lo revoque manualmente. Del mismo modo, cargar con una contraseña significa que un atacante puede cargar cualquier proyecto asociado con la cuenta. La publicación confiable evita estos dos problemas: los tokens emitidos caducan automáticamente y se limitan solo a los paquetes en los que están autorizados a cargar.

Sobre este nuevo método de autenticación, se menciona que se basa en el estándar OpenID Connect (OIDC), que utiliza tokens de autenticación de tiempo limitado intercambiados entre servicios externos y el directorio PyPI para validar una operación de publicación de paquetes, en lugar de usar un inicio de sesión/contraseña tradicional o una API persistente generada manualmente por tokens de acceso.

«Publicación de confianza» es nuestro término para usar el estándar OpenID Connect (OIDC) para intercambiar tokens de identidad de corta duración entre un servicio de terceros de confianza y PyPI. Este método se puede usar en entornos automatizados y elimina la necesidad de usar combinaciones de nombre de usuario/contraseña o tokens API generados manualmente para autenticarse con PyPI al publicar.

Por otra parte, tambien se menciona que los mantenedores de paquetes pueden, en el lado de PyPI, confiar en los identificadores proporcionados a los proveedores de OpenID externos (IdP, OpenID Connect Identity Provider), que el servicio externo usará para solicitar tokens no vivos de PyPI.

Los tokens de OpenID Connect generados confirman la relación entre el proyecto y el controlador, lo que permite a PyPI realizar una verificación de metadatos adicional, como verificar que el paquete publicado esté asociado con un repositorio específico. Los tokens no son persistentes, están vinculados a API específicas y caducan automáticamente después de un breve período de vida.

En su lugar, los mantenedores de PyPI pueden configurar PyPI para confiar en una identidad proporcionada por un proveedor de identidad (IdP) de OpenID Connect dado. Esto permite que PyPI verifique y delegue la confianza en esa identidad, que luego está autorizada para solicitar tokens de API de alcance limitado y de corta duración de PyPI. Estos tokens de API nunca necesitan almacenarse ni compartirse, rotan automáticamente al expirar rápidamente y proporcionan un vínculo verificable entre un paquete publicado y su fuente.

Actualmente la capacidad de usar el mecanismo «Editores de confianza» ya se encuentra implementada y en funcionamiento para los controladores iniciados en GitHub Actions. Por último y no menos importante, también se hace mención de que se espera en el futuro la compatibilidad con Trusted Publishers para otros servicios externos.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.



from Desde Linux https://ift.tt/2uvqOsV
via IFTTT

La inteligencia artificial en las apuestas deportivas

Las apuestas deportivas han ganado una tracción significativa entre los fanáticos de los deportes en en todo el mundo. Las apuestas online se han convertido en una de las actividades más interesantes para los aficionados al deporte, los equipos y las ligas. Es por eso que las apuestas deportivas se anuncian comúnmente en eventos deportivos.

Sin embargo, la tecnología subyacente a las apuestas deportivas recibe poca atención. En particular, la inteligencia artificial (IA) juega un papel clave para que las plataformas de apuestas en línea en Betcris y otros funcionen sin problemas. Vale la pena echar un vistazo más de cerca al papel que juega la inteligencia artificial en las apuestas deportivas.

Inteligencia artificial en las apuestas deportivas

La inteligencia artificial (IA) se utiliza cada vez más en las apuestas deportivas para analizar grandes cantidades de datos y hacer predicciones sobre los resultados de los juegos y partidos. Las siguientes son formas en que la IA se utiliza en las apuestas deportivas:

Modelado predictivo

Los algoritmos de IA pueden analizar datos de juegos anteriores, incluidas estadísticas como el rendimiento del jugador, las condiciones climáticas y otras variables, para predecir los resultados futuros del juego.

Aprendizaje automático

La IA también puede usar algoritmos de aprendizaje automático para adaptar y mejorar sus predicciones a lo largo del tiempo a medida que aprende de los nuevos datos.

Procesamiento del lenguaje natural

La IA puede analizar artículos de noticias y publicaciones en redes sociales para obtener información sobre el sentimiento de los jugadores y el equipo y otros factores que afectan los resultados del juego.

Optimización

La IA puede ayudar a los apostadores deportivos a optimizar sus apuestas mediante el análisis de factores como las probabilidades de apuestas, los pagos potenciales y los factores de riesgo.

Detección de fraude

La IA también se puede utilizar para detectar actividades de apuestas fraudulentas o sospechosas, lo que puede ayudar a prevenir actividades ilegales como el arreglo de partidos.

Inconvenientes de la inteligencia artificial en las apuestas deportivas

Si bien la IA puede ser una herramienta poderosa en las apuestas deportivas, es importante tener en cuenta que ningún algoritmo puede predecir el resultado de cada juego o partido con una precisión del 100%. Como resultado, hay inconvenientes a considerar:

Alcance limitado

Los algoritmos de IA solo pueden analizar los datos que están disponibles para ellos, lo que significa que es posible que no tengan en cuenta ciertas variables que podrían afectar el resultado de un juego. Por ejemplo, un algoritmo de IA puede no ser capaz de dar cuenta de las lesiones o los cambios en la dinámica del equipo.

Dependencia excesiva

Existe el riesgo de una dependencia excesiva de la IA en las apuestas deportivas, lo que puede conducir a expectativas poco realistas o a una mala toma de decisiones. Los apostantes pueden confiar demasiado en la precisión de las predicciones de IA y apostar más de lo que pueden permitirse perder.

Calidad de los datos

La precisión de las predicciones de IA es tan buena como la calidad de los datos utilizados para entrenar el algoritmo. Si los datos son incompletos o inexactos, las predicciones de IA pueden ser poco confiables.

Desafíos regulatorios

El uso de la IA en las apuestas deportivas puede plantear desafíos regulatorios, ya que los reguladores pueden estar preocupados por el uso de sistemas automatizados para tomar decisiones de juego.

Consideraciones éticas

También hay consideraciones éticas que deben ser consideradas. Entre ellos se encuentran la posibilidad de que la IA explote a personas vulnerables o de que la IA se utilice en actividades ilegales como el amaño de partidos.

El futuro de la inteligencia artificial en las apuestas deportivas

El futuro de la IA en las apuestas deportivas probablemente implicará algoritmos más avanzados y un mayor uso del análisis de datos. Los siguientes son desarrollos potenciales en el uso de la IA en las apuestas deportivas:

Precisión mejorada

Es probable que los algoritmos de IA se vuelvan más precisos con el tiempo a medida que continúan aprendiendo de los nuevos datos y mejorando sus predicciones.

Personalización

La IA podría usarse para crear estrategias de apuestas personalizadas para apostadores individuales, en función de su historial de apuestas y preferencias pasadas.

Análisis en tiempo real

La IA podría usarse para analizar datos en tiempo real durante los juegos, lo que permite a los apostantes tomar decisiones más informadas durante el juego.

Integración con otras tecnologías

La IA podría integrarse con otras tecnologías, como la realidad virtual y aumentada, para proporcionar una experiencia de apuestas deportivas más inmersiva e interactiva.

Seguridad mejorada

La IA podría utilizarse para mejorar la seguridad de las plataformas de apuestas deportivas, detectando y previniendo actividades fraudulentas o sospechosas.

El futuro de la IA en las apuestas deportivas probablemente implicará algoritmos más avanzados y un mayor uso del análisis de datos, lo que conducirá a predicciones más precisas y una experiencia de apuestas más personalizada e inmersiva para los apostadores individuales.

La industria de las apuestas en línea ha cambiado drásticamente la forma en que las personas juegan y disfrutan de la actividad. Con la aparición de la tecnología avanzada y el uso de la IA y la realidad virtual, la experiencia se ha vuelto más inmersiva y dinámica, proporcionando a los apostadores una experiencia de juego realista.

Las casas de apuestas en línea evolucionan continuamente para satisfacer las demandas de los clientes, proporcionándoles nuevas y emocionantes formas de apostar desde la comodidad de sus hogares. El enfoque de la industria en la innovación ha resultado en un aumento significativo en la popularidad de los juegos de azar en línea.

Las casas de apuestas en línea también se han convertido en un centro para los apostadores de todo el mundo, ofreciendo varias opciones, bonos y promociones que no están disponibles en las casas de apuestas tradicionales. A medida que la tecnología continúa mejorando y ofreciendo experiencias cada vez más inmersivas, podemos esperar ver un mayor crecimiento y evolución dentro de la industria en los próximos años.

El cargo La inteligencia artificial en las apuestas deportivas apareció primero en Tecnovedosos.



source https://tecnovedosos.com/inteligencia-artificial-apuestas-deportivas/

Manjaro Linux 22.1 «Talos» llega con Linux 6.1 LTS, GNOME 43, Plasma 5.27 y mas

Manjaro Talos.

Manjaro Linux 22.1 «Talos» incorpora las últimas actualizaciones

Ya fue liberada la nueva versión de Manjaro Linux 22.1 «Talos», la cual llega con las diferentes actualizaciones de los entornos de escritorio Gnome y Plasma, ademas de la actualización del Kernel, entre otras cosas más.

La distribución destaca por la presencia de un proceso de instalación simplificado y fácil de usar, soporte para la detección automática de hardware e instalación de los controladores necesarios para su funcionamiento.

Para administrar repositorios, Manjaro usa su propio kit de herramientas BoxIt, diseñado de la misma manera que Git. El repositorio es compatible de forma continua, pero las nuevas versiones pasan por una etapa adicional de estabilización.

Además de su propio repositorio, hay soporte para usar el repositorio AUR (Arch User Repository). La distribución se suministra con un instalador gráfico y una interfaz gráfica para configurar el sistema.

Principales novedades de Manjaro Linux 22.1

En esta nueva versión de Manjaro Linux 22.1 «Talos» se incluye el kernel de Linux 6.1 TLS junto con la opción de poder instalar otras dos versiones anteriores que son 5.10 y 5.15. El Kernel 6.1 LTS se utiliza para esta versión para ofrecer soporte para los controladores más recientes disponibles hasta la fecha. Mientras que las versiones 5.15 LTS y 5.10 LTS, se incluyen para el soporte adicional para hardware antiguo según sea necesario.

Por la parte de los entornos de escritorio, podremos encontrar que la versión principal de Manjaro Linux 22.1 «Talos» continúa entregándose con la versión Xfce 4.18 que incluye una nueva función de resaltado de archivos (a la que se accede desde el cuadro de diálogo de propiedades del archivo).

En el administrador de archivos Thunar se permite configurar un fondo de color personalizado y un color de texto de primer plano personalizado: una forma efectiva de llamar la atención sobre archivos específicos en un directorio cargado con tipos de mimo de aspecto similar.  Por otra parte, se menciona que Control Center agrupa todos los diversos módulos del escritorio para administrar el sistema en una ventana fácil de usar.

En la edición basada en GNOME, esta se actualizó a la versión GNOME 43.5 en la cual se ha rediseñado el menú de estado del sistema, que ofrece un bloque con botones para cambiar rápidamente las configuraciones más utilizadas.

El conmutador de apariencia ahora admite la creación de su propio fondo de pantalla dinámico, ademas de que se agregó la aplicación Gradience para la personalización del tema y Layouts Switcher ha adquirido algunas características nuevas, así como varias mejoras y correcciones.

La edición basada en KDE se ha actualizado a KDE Plasma 5.27 y KDE Gear 22.12  y en esta versión incluye un sistema de ventanas en mosaico, un tema de aplicación más elegante, herramientas más limpias y útiles, y widgets que le brindan más control sobre su máquina. Además, el botón Resaltar configuraciones modificadas se ha movido al menú de hamburguesas para una apariencia más limpia.

Tambien, se menciona que se ha mejorado la migración hacia Wayland, con muchas correcciones de errores y mejoras.

Por último y no menos importante, tambien podremos encontrar que el administrador de paquetes Pamac se ha actualizado a la versión 10.5.

Finalmente, si quieres conocer más al respecto de este lanzamiento puedes consultar los detalles en el siguiente enlace.

Descargar Manjaro Linux 22.1

Para quienes estén interesados en poder obtener la nueva versión de Manjaro, pueden obtener la imagen del sistema dirigiéndose al sitio web oficial de la distribución y en su sección de descargas podrán encontrar los enlaces para descargar alguno de los sabores de su agrado o las versiones comunitarias que añaden otros entornos de escritorio o gestores de ventanas.

Manjaro viene en versiones en vivo con entornos gráficos KDE (3,9 GB), GNOME (3,8 GB) y Xfce (3,8 GB). Con la participación de la comunidad, se desarrollan aún más las compilaciones con Budgie, Cinnamon, Deepin, LXDE, LXQt, MATE e i3. El enlace es este.

La imagen del sistema la pueden grabar:

Windows: Pueden utilizar Etcher, Universal USB Installer o LinuxLive USB Creator, ambos son sencillos de utilizar.
Linux: La opción recomendable es usar el comando dd, con el cual definimos en qué ruta tenemos la imagen de Manjaro y también en qué punto de montaje tenemos nuestra usb:

dd bs=4M if=/ruta/a/manjaro.iso of=/dev/sdx && sync



from Desde Linux https://ift.tt/QL4hdnB
via IFTTT

Ya fue liberada la nueva versión de Opus 1.4.0

opus

Opus es un códec de audio digital con compresión con pérdida; muy versátil, abierto y libre de regalías

Xiph.Org, el desarrollador de códec de audio y video Opus, dio a conocer hace poco el lanzamiento de la nueva versión del códec de audio Opus 1.4.0.

Opus es un codec de audio que se caracteriza por proporcionar una codificación de alta calidad y latencia mínima tanto para transmisión de audio de alta tasa de bits como para compresión de voz en aplicaciones VoIP con ancho de banda limitado.

El códec se creó combinando las mejores tecnologías del códec CELT desarrollado por Xiph.org y el códec SILK abierto por Skype. Además de Skype y Xiph.Org, empresas como Mozilla, Octasic, Broadcom y Google también participaron en el desarrollo de Opus.

Las patentes involucradas en Opus son otorgadas por las empresas involucradas en el desarrollo para uso ilimitado sin pago de regalías. Todos los derechos de propiedad intelectual y licencias de patentes relacionadas con Opus se delegan automáticamente a aplicaciones y productos que utilizan Opus, sin necesidad de aprobación adicional.

No hay restricciones sobre el alcance y la creación de implementaciones alternativas de terceros. Sin embargo, todos los derechos otorgados se revocan en caso de procedimientos de patente que afecten a las tecnologías de Opus contra cualquier usuario de Opus.

Opus presenta una alta calidad de codificación y una latencia mínima tanto para la compresión de transmisión de audio de alta tasa de bits como para la compresión de voz para aplicaciones de telefonía VoIP con restricciones de ancho de banda.

Principales novedades de Opus 1.4

En esta nueva versión que se presenta de Opus 1.4.0 se destaca que se ha llevado a cabo la optimización de los parámetros de codificación, con el objetivo de mejorar los indicadores subjetivos de la calidad del sonido cuando se habilita FEC (Corrección de errores hacia adelante) para restaurar paquetes dañados o perdidos a tasas de bits de 16 a 24 kbs (LBRR, Low-Bit-Rate Redundancy).

Otro de los cambios que se destaca de esta nueva versión, es que se agregó un nuevo valor de 2 a la opción OPUS_SET_INBAND_FEC para habilitar la corrección de errores de FEC, pero sin forzar la habilitación del modo SILK (la FEC no se usará en el modo CELT).

Ademas de ello, se ha mejorado la implementación mejorada del modo DTX (Transmisión discontinua), que brinda suspensión de la transmisión del tráfico en ausencia de sonido.

Por otra parte, se destaca que se agregó soporte para el sistema de compilación Meson y se mejoró el soporte para compilar usando CMake.

Cabe mencionar que para versiones futuras, basadas en tecnologías de aprendizaje automático, se están desarrollando funciones experimentales para restaurar fragmentos de audio perdidos debido a la pérdida de paquetes: «Real-Time Packet Loss Concealment» y «Deep Audio Redundancy»

Finalmente si estás interesado en poder conocer más al respecto, debes saber que las implementaciones de referencia del codificador y del decodificador se distribuyen bajo la licencia BSD. Las especificaciones completas del formato Opus están disponibles públicamente, de forma gratuita y aprobadas como estándar de Internet ( RFC 6716). Puedes consultar los detalles de este lanzamiento en el siguiente enlace.

¿Como instalar Opus en Linux?

Para los que estén interesados en poder instalar este codec de audio en su sistema, deben saber que la mayoría de las distribuciones de Linux cuentan con el codec en sus repositorios y pueden instalarlo desde ello. Algunos de los productos compatibles con Opus listos para usar incluyen el navegador Firefox, el marco GStreamer y el paquete FFmpeg.

Aunque de momento (al momento de la redacción) aún no está disponible en algunas distribuciones la nueva versión y para poderla obtener pueden hacerlo compilando el codec.

Para ello basta con abrir una terminal y ejecutar alguno de los siguientes comandos, acorde a tu distribucion. Lo primero que vamos a hacer es instalar algunas herramientas para poder realizar la compilación:

En el caso de los que son usuarios de Ubuntu, Debian o cualquier derivado:

sudo apt-get install git autoconf automake libtool gcc make

Fedora/Redhat o cualquier derivado de estos:

sudo dnf install git autoconf automake libtool gcc make

Ahora vamos a obtener el código fuente con el siguiente comando:

git clone https://gitlab.xiph.org/xiph/opus.git
cd opus

Y procedemos a realizar la compilación con:

./autogen.sh
./configure
make
make install



from Desde Linux https://ift.tt/lUWc5bw
via IFTTT