30 septiembre 2023

Raspberry Pi 5: Revolución con SoC Propio y Mejoras Notables

Raspberry Pi 5: Revolución con SoC Propio y Mejoras Notables

Todo apuntaba a que tendríamos que esperar bastante para disfrutar de una nueva Raspberry Pi: los problemas de fabricación y distribución precisamente habían hecho que durante meses conseguir una Raspberry Pi 4 a precios "normales" fuera casi imposible, y eso planteaba también problemas para una potencial sucesora.



Sin embargo esa sucesora acaba de llegar: acaba de anunciarse la Raspberry Pi 5, y lo hace con una novedad especialmente notable: incluye un SoC fabricado por la propia empresa. Atentos, que esto promete.





Todo apuntaba a que tendríamos que esperar bastante para disfrutar de una nueva Raspberry Pi: los problemas de fabricación y distribución precisamente habían hecho que durante meses conseguir una Raspberry Pi 4 a precios "normales" fuera casi imposible, y eso planteaba también problemas para una potencial sucesora.



Sin embargo esa sucesora acaba de llegar: acaba de anunciarse la Raspberry Pi 5, y lo hace con una novedad especialmente notable: incluye un SoC fabricado por la propia empresa. Atentos, que esto promete.



Ficha técnica de la Raspberry Pi 5



RASPBERRY PI 5CPUBroadcom BCM2712Quad-core Arm Cortex-A76 a 2,4 GHzGPUVideoCore VIISoporta OpenGL ES 3.1 y Vulkan 1.2RAM4 / 8 GB LPDDR4XCONECTIVIDADWi-Fi 5Bluetooth 5.0 / BLEPUERTOS2 x micro HDMI (hasta 2 x 4K 60Hz simultáneas)2 x USB 3.02 x USB 2.01 x Gigabit Ethernet con PoE opcional2 x MIPI de 4 pistas1 x PCIe 2.0 x11 x GPIO 40 pinesALMACENAMIENTORanura microSDOpción para unidades SSD M.2 (vía HAT opcional)OTROSBotón de encendido y apagadoRTC (Real Time Clock)Accesorios opcionales diversosPRECIORaspberry Pi 5 (4 GB RAM): 59,95 eurosRaspberry Pi 5 (8 GB RAM): 79,95 euros

Mucho más potente, mucho más versátil



Esas mejoras llegan también al subsistema de entrada y salida, que cuenta con un mayor ancho de banda. Gracias a ello es posible usar la Raspberry Pi 5 conectada a dos monitores 4K a 60 Hz de forma simultánea, y también es posible disfrutar del doble de ancho de banda en los puertos USB 3.0



Hay otra buena noticia: este SoC también habilita el uso de un puerto PCIe x1 para poder conectar dispositivos PCIe y también NVMe.



Se mantiene el chip de conectividad inalámbrica, que proporciona soporte para Wi-Fi 5 y de Bluetooth 5.0 (con BLE), aunque se ha realizado un pequeño cambio para reducir su consumo energético y mejorar su throughput. La gestión de la alimentación también estrena un chip de Renesas que permite acceder a amperajes de hasta 20A para alimentar esos nuevos núcleos y que puedan rendir al máximo.





Pero el propio Eben Upton, creador de este miniPC y líder del proyecto, se mostraba especialmente orgulloso en este lanzamiento por el SoC RP1 diseñado por la Raspberry Pi Foundation y fabricado por TSMC. Este chip se encarga de mejorar ese ancho de banda en distintas interfaces de entrada salida como los puertos USB 3.0, los Ethernet, la interfaz GPIO y también las salidas MIPI de cámara y pantalla que permiten conectar webcams o pequeñas pantallas táctiles de forma sencilla a la Raspberry Pi.



Este chip separa sus funciones del tradicional enfoque monolítico con un AP que incluía todas esas funciones. Ahora sigue teniendo trabajo —se encarga de la interfaz de la SD, pero también de las más rápidas, la SDRAM que ofrece el doble de MT/s que la RPI 4, HDMI y PCIe— mientras que otras funciones de I/O están en un controlador separado y con una fotolitografía más barata que cumple a la perfección con los requisitos que buscaban en la RPi Foundation.





El SoC RP1 ha sido diseñado por el mismo equipo que diseño el microcontrolador RP2040 y se ha fabricado con el proceso 40LP ya veterano. Está muy lejos de los avanzados procesos fotolitográficos de los modernos chips actuales, pero no persigue los mismos objetivos y se centra en ese ancho de banda de la entrada/salida. Su desarrollo es el más importante que ha afrontado esta empresa, que ha invertido 15 millones de dólares en su diseño y desarrollo.



El diseño de la Raspberry Pi es similar a sus predecesores y mantiene ese formato de "tarjeta de crédito". Aún así, hay cambios: se eliminan los conectores de vídeo compuesto —aún disponible desde la placa con un pequeño conector especial— y el puerto de auriculares.





Hay ahora dos conectores FPC que son interfaces MIPI de cuatro pistas, pudiendo ser usados para conectar cámaras y pantallas. También es posible conectar dispositivos PCIe 2.0 x1. Eso, gracias a un accesorio adicional en formato HAT que aparecerá a principios de 2024, permitirá conectar unidades SSD M.2 y otros accesorios de este tipo.



El conector Gigabit Ethernet vuelve a su posición original en la esquina inferior derecha de la placa, algo que se modificó en la Raspberry pi 4. Además cuenta con un conector Power over Ethernet (PoE) de cuatro pines, lo que permite simplificar el diseño de la placa pero hace que se rompa la compatibilidad con los actuales accesorios (y el "HAT") que tenían para PoE en las RPi anteriores.





En la Raspberry Pi Foundation también han tenido en cuenta a quienes buscan exprimir a fondo estos miniPCs, y han incluido una serie de agujeros para montar disipadores adicionales y sistemas de refrigeración algo más ambiciosos.



En la Raspberry Pi Foundation tendrán además disponibles una serie de accesorios para sacar más partido al miniPC. Por ejemplo, una caja (10 dólares), un ventilador activo (5 dólares), una fuente de alimentación con conector USB-C de 27 W (12 dólares) que permite aprovechar todo el margen de maniobra del nuevo SoC, y cables para la cámara o pantalla MIPI, además del nuevo PoE HAT o el futuro M.2 HAT para las citadas unidades SSD M.2.





Hay además sorpresas muy agradables y muy demandadas por los usuarios: en la placa encontraremos tanto un reloj en tiempo real —que se puede alimentar con una pila recargable de litio-manganeso o con un supercondensador externo (venderán uno), y, atención, un botón de encendido y apagado que soporta tanto el apagado "duro" como el apagado "suave" además de eventos para el encendido.



Para completar este conjunto, en la Raspberry Pi Foundation han anunciado la inminente aparición del nuevo Raspberry Pi OS con nombre en clave "Bookworm". El sistema operativo oficial de las Raspberry Pi basado en Debian/Raspbian contará con mejoras como la transición del sistema X11 a Wayfire Wayland en las RPi 4 y RPi 5. Se espera que esta nueva versión esté disponible a mediados de octubre, aunque ya es posible instalar versiones preliminares.



Precio y versiones de la Raspberry Pi 5



La nueva Raspberry Pi 5 estará disponible a finales de octubre, y estará inicialmente preparada con dos versiones:



Raspberry Pi 5 (4 GB de RAM): 60 dólares



Raspberry Pi 5 (8 GB de RAM): 80 dólares



Vía | Raspberry Pi 5: características, precio y ficha técnica (xataka.com)


https://bit.ly/3PXJCAg

Microsoft cierra truco de actualización a Windows 10 y 11

Microsoft cierra truco de actualización a Windows 10 y 11

Hace años —concretamente en 2015—, Microsoft quiso dar un impulso a la adopción de Windows 10 por parte de los usuarios y habilitó la posibilidad de actualizar a la nueva versión de su sistema operativo desde versiones antiguas del mismo (concretamente, Windows 7 y Windows 8) sin necesidad de adquirir nuevas licencias.



Era un mecanismo provisional, que en su momento se anunció que sólo estaría vigente hasta julio de 2016. Sin embargo, tras esa fecha, Microsoft 'se olvidó' del asunto, manteniéndolo como un truco a disposición de los usuarios durante 7 años. De hecho, cuando Windows 11 se lanzó al mercado, se comprobó que el truco seguía funcionando. Hasta ahora.



Y es que Microsoft acaba de tomar la decisión de cerrar esa brecha que permitía a los usuarios disponer de Windows 10 (y 11) utilizando claves de las versiones anteriores.



Esta medida ha entrado en vigor en las últimas versiones preliminares de Windows 11, disponibles por ahora únicamente para los miembros del Programa Insider.



El anuncio oficial de Microsoft señala:



"La oferta de actualización gratuita de Microsoft para Windows 10 / 11 finalizó el 29 de julio de 2016. El camino de instalación para obtener la actualización gratuita de Windows 7 / 8 también se ha eliminado. Las actualizaciones a Windows 11 desde Windows 10 siguen siendo gratuitas".



¿Cómo quedan las cosas ahora?



Por el momento, las antiguas claves de Windows 7 y 8 aún pueden activar las versiones de producción de Windows 11 (es decir, las disponibles para la mayoría de los usuarios), aunque no está claro cuánto tiempo se mantendrá esta posibilidad.



Sin embargo, Microsoft asegura que las claves de producto de Windows 10 seguirán siendo capaces de activar Windows 11 indefinidamente, siempre y cuando se utilice Windows 11 en un PC compatible oficialmente con dicha versión.



Vía | Microsoft anuncia que bloqueará el truco que permitía activar Windows 11 y 10 con claves de versiones antiguas del sistema operativo (genbeta.com)


https://bit.ly/3LImsvr

ChatGPT se renueva y navega por Internet para darte las mejores respuestas

ChatGPT se renueva y navega por Internet para darte las mejores respuestas

El bot conversacional de OpenAI sorprendió a medio mundo hace ya casi un año, desde entonces, ha ido actualizándose añadiendo nuevas funciones. La última, convertirse en un asistente de voz, tras el aterrizaje de la aplicación oficial a España.



Lo siguiente pasa por superar sus propias carencias, y una de las más sonadas frente a la competencia era el límite temporal de conocimiento. Ahora, ChatGPT dice adiós a esta barrera y se conectará a Internet para proporcionar una mejor respuesta.



ChatGPT supera sus propios miedos



ChatGPT se ha vuelto muy popular en poco tiempo, y es que la solución de OpenAI fue rápida y se expandió con una viralidad impresionante. Sin embargo, todavía tenía algún escollo que superar. La realidad es, que frente a Bing de Microsoft e incluso frente a Google Bard, poco tenía qué hacer en relación con la información actualizada.





Ahora, su conocimiento se dilatará más allá de septiembre de 2021, su conocido límite, y podrá responder los prompts de los usuarios de una mejor manera. Para ello, como no podía ser de otra forma, se servirá de Internet, y es que navegará por la red en tiempo real, ofreciendo resultados más precisos y sobre todo, actualizados.



¿Qué cambiará esta nueva habilidad? Pues bien, ahora nos ayudará mejor en tareas de diversa índole, como buscar recomendaciones de compra, planificar un viaje, o buscar información sobre un tema reciente. La compañía detrás del popular chatbot ha anunciado que la navegación está disponible tanto para usuarios de ChatGPT Plus, como de Enterprise.



Pero además, pronto llegará a todos los usuarios, incluidos los que usan la modalidad gratuita. Eso sí, necesitaremos acceso al modelo más actualizado, GPT-4, por lo que habrá que seleccionarlo en los ajustes del bot. Cuando estemos haciendo uso de esta versión conectada a Internet, ChatGPT nos lo notificará, dando enlaces junto a sus respuestas.



OpenAI también comenta que esta última adición permitirá a los sitios web controlar cómo el bot interactúa con ellos, eliminando así el problema que se generó cuando los usuarios comenzaron a aprovecharlo para saltarse muros de pago de distintos medios de comunicación. Es por ello que OpenAI borró esta capacidad el pasado verano, pero ya lo habrían solucionado en esta última actualización.



Sea como fuere, ChatGPT da un paso de gigante con esta habilidad, algo que llevaba un tiempo siendo casi imprescindible. Los usuarios que han cambiado de bot debido a esto, ahora se quedan sin argumentos, a esperas de ver cómo la empresa detrás del conocido servicio sigue mejorándolo.



Vía | ChatGPT dice adiós a su principal límite: ahora navegará por Internet para respondernos con información actualizada (xatakamovil.com)


https://bit.ly/48BTrLu

28 septiembre 2023

Quest 3 de Meta: Nuevo Casco de Realidad Virtual Mejorado

Quest 3 de Meta: Nuevo Casco de Realidad Virtual Mejorado

El 10 de octubre de 2023, Meta comenzará a enviar Quest 3, su más reciente casco de realidad virtual con un cosoto de $499 dólares. El Quest 3 ofrece algunas característica optimizadas como una pantalla de mayor resolución y un procesador mejorado.



El Quest 3 es una versión un poco más compacta del Quest 2 que promete una mejora en la claridad de la pantalla y juegos con gráficos más intensivos.



Cuenta con pantallas duales de 2064 x 2208 píxeles en comparación con los 1832 x 1920 píxeles por ojo del Quest 2, y es el primer producto que se envía con un chipset Qualcomm Snapdragon XR2 de segunda generación, que según Meta puede lograr un rendimiento gráfico dos veces más rápido que el XR2 de primera generación de Quest 2.



El nuevo dispositivo también integra la experiencia de inmersión de la compañía conocida como “realidad mixta” (MR): un término que, generalmente se refiere a una transmisión de video superpuesta con objetos digitales que pasan a la pantalla de un auricular.





El Quest 3 también ha simplificado el tamaño de los controladores en comparación con el Quest 2. Mientras que la anterior versión utiliza un gran anillo de seguimiento LED en los nudillos del usuario, el Quest 3 elimina este elemento y, según Meta, lo compensa con algoritmos de seguimiento mejorados.



Los controladores del Quest 3 se asemejan a los del Quest Pro lanzado en 2022, pero carecen de las cámaras integradas, lo que reduce significativamente el consumo de energía y podría eliminar el breve retraso al despertar que experimentaban las cámaras de los controladores Pro.



Estos controladores del Quest 3 todavía utilizan baterías desechables, pero se lanzan con una base de carga que incluye baterías recargables que se pueden insertar en ellos, una característica que muchos propietarios del Quest 2 ya habían adoptado por su cuenta. La duración de la batería de los auriculares Quest se estima en entre dos y tres horas, similar a la del Quest 2 y mejor que la del Quest Pro.





El dispositivo también tiene un aspecto un poco más deportivo que su predecesor. El accesorio para la cabeza predeterminado ha experimentado un rediseño para ajustarse de manera más cómoda a moños y colas de caballo, incorporando una correa superior en forma de Y. Además, todavía tiene la opción de adquirir una versión de la correa Elite Strap, ya sea con o sin una batería adicional.



Las lentes ahora tienen un perfil más delgado, y se han incorporado un par de botones en el interior que permiten ajustar la distancia entre las lentes y la cara, lo que facilita la comodidad para las personas que usan anteojos.



El Quest 3 también incorpora un sensor de profundidad que no estaba presente en el Quest 2 o el Quest Pro, lo que implica una capacidad mejorada para escanear con mayor precisión el entorno físico, identificando la ubicación de paredes y objetos. A diferencia de los cascos anteriores de Meta, no es necesario hacer uso del controlador para establecer los límites en el modo de realidad virtual.



Meta ha avanzado más allá de las etapas iniciales de las demostraciones tecnológicas básicas en el campo de la realidad virtual. La empresa ha estado constantemente financiando y adquiriendo aplicaciones y juegos de alta calidad en este ámbito, desde los primeros títulos de Oculus Rift como Superhot y The Climb, hasta el exitoso port para Quest 2 de Resident Evil 4 y el popular juego independiente Beat Saber.



Estas inversiones y adquisiciones han contribuido a consolidar el fitness como una categoría importante en el mundo de la realidad virtual.



El modelo básico de 128 GB del Quest 3 cuesta $200 más que el Quest 2, que se vende por $299, y el modelo de 512 GB del nuevo auricular costará $649.



Vía | Meta Quest 3: el nuevo casco de realidad virtual de Meta - Infobae


https://bit.ly/46sOiU7

LPCAMM de Samsung: Memoria RAM Compacta, Rápida y Eficiente

LPCAMM de Samsung: Memoria RAM Compacta, Rápida y Eficiente

A la hora de comprar memoria RAM, tenemos que diferenciar entre el formato DIMM que son los módulos para PC y el SO-DIMM, siendo estos más compactos y dirigidos a portátiles. Si bien la diferencia de tamaño es significativa y el SO-DIMM ya de por sí es pequeño, ahora llega LPCAMM, una memoria creada por Samsung que es un 60% más pequeña, pero más rápida y eficiente.



Por norma general, los componentes que dan vida a los ordenadores suelen tener un tamaño y formato específicos que no sufre muchos cambios. Esto es debido al hecho de que no tengamos que actualizar ni cambiar piezas, siendo compatibles estas con el paso del tiempo. Además, crear un nuevo estándar lleva tiempo y debe suponer una mejora notoria para que el mercado entero siga por ese camino. Hemos visto algunos cambios recientes en ese aspecto como con las fuentes ATX 3.0 y PCIe 5.0 que próximamente se actualizarán.



Samsung LPCAMM: nuevo formato de memoria para portátiles, PC y servidores





Si nos vamos a otros componentes como placas base, RAM o GPU, lo cierto es que todo sigue igual. Con las RAM en concreto, hemos estado utilizando DIMM y SO-DIMM desde hace décadas, además de LPDDR soldada directamente en la placa. Sin embargo, Samsung ha llegado para cambiar esto de una vez por todas, sumando un nuevo formato que trae todo ventajas. Basado en LPDDR, tenemos la denominada LPCAMM, la cual se caracteriza por ser el primer módulo de memoria comprimida de bajo consumo.



Esta se ha diseñado para poder acabar con las deficiencias de la memoria LPDDR soldada que todos conocemos, ya que la LPCAMM es modular y extraíble. Aunque el tipo de memoria sea el mismo, esta alcanzará una velocidad de hasta LPDDR5X-7500, con capacidades que irán desde los 32 GB hasta los 128 GB que esperan lograr como máximo. Todo esto iría en un pequeño módulo que solo ocupa 78 mm x 23 mm y tendría un ancho de bus de 128 bits.



Es más rápida, más eficiente y más pequeña que la memoria SO-DIMM





Samsung anuncia esta memoria como una mejora en todos los aspectos respecto a los estándares actuales. Así pues, asegura que con LPCAMM se logrará un 50% más de rendimiento, un 70% más de eficiencia energética y ocupará un 60% menos espacio en la placa base que las memorias SO-DIMM. Esto son unas cifras fantásticas y ahí no acaba eso, pues gracias a sus características, no está únicamente limitada a portátiles. Samsung quiere llevar la memoria LPCAMM también a sobremesa e incluso a servidores y centros de datos en un futuro.



La compañía surcoreana considera que los estándares actuales están desactualizados y hace falta un cambio. Por un lado, tenemos DIMM y SO-DIMM si queremos memoria en módulos físicos y por otro lado, existe LPDDR como memoria soldada. Con LPCAMM tenemos lo mejor de ambos mundos, ya que será un módulo extraíble como la SO-DIMM pero más pequeña, acercándose al tamaño de la memoria soldada.



Además, es mucho más eficiente que los módulos de memoria habituales, por lo que los portátiles y servidores se verán muy beneficiados en este aspecto. Yongcheol Bae, vicepresidente ejecutivo de memoria en Samsung, cree que se va a utilizar ampliamente según aumente la demanda de este tipo de memoria. Aún están trabajando para que JEDEC la considere un estándar, pero van a estar haciendo pruebas en lo que queda de año, dado que buscan comercializarla en 2024.



Vía | Samsung LPCAMM, la memoria RAM más rápida, eficiente y pequeña (elchapuzasinformatico.com)


https://bit.ly/3LCaSSr

Huawei presenta NearLink: Tecnología Inalámbrica Rivaliza con Bluetooth

Huawei presenta NearLink: Tecnología Inalámbrica Rivaliza con Bluetooth

El gigante Huawei presentó hace unos días NearLink, un nuevo estándar de comunicación inalámbrica que convierte al Bluetooth en una tecnología prehistórica. Es más rápido, tiene menos latencia, consume menos, y tiene más alcance, entre otras virtudes.



Huawei no ha desvelado cómo funciona, pero sí sabemos que NearLink fusiona las mejores características de WiFi y Bluetooth, para obtener un nuevo estándar de comunicación inalámbrica de corto alcance, unos 20 metros. Aun así es el doble que Bluetooth.



NearLink ya está integrado en su sistema operativo HarmonyOS, así como en su nueva gama de móviles Huawei Mate 60, que acaba de presentar en China.



NearLink, mucho mejor que Bluetooth



Las características de NearLink que ha desvelado Huawei, comparándolas con Bluetooth, son impresionantes.



NearLink es seis veces más rápido, tiene 30 veces latencia, consume un 60% menos, es más estable y sufre menos interferencias, cubre el doble de distancia, y acepta 10 veces más conexiones.



Como Bluetooth, es compatible con móviles, tablets, ordenadores, dispositivos del hogar, coches, etc.



Es una tecnología muy prometedora, pero tiene un importante hándicap: con el veto de Estados Unidos y otros países a Huawei, es imposible que se convierta en un estándar universal, al tratarse de un sistema de transmisión de datos, que es justo lo que bloquea el veto de Estados Unidos.



Huawei asegura en su nota de prensa que ya ha llegado a un acuerdo con 300 empresas "nacionales y extranjeras" para utilizarlo, pero TechRadar ha estado investigando, y prácticamente todas esas empresas son chinas, incluyendo a Lenovo, Hisense y Honor. Las únicas compañías extranjeras son la taiwanesa MediaTek, y la constructora francesa St. Gobain.



Esta nueva tecnología forma parte del esfuerzo de Huawei por desligarse de los estándares occidentales, obligada por el veto. Ya abandonó Android por HarmonyOS, y también ha presentado un nuevo sistema de transmisión de banda ultra-ancha (UWB), para competir con Apple.



NearLink supera al Bluetooth en todos los aspectos, pero seguramente no llegue a Occidente, salvo en los productos de Huawei y otros fabricantes chinos.



Vía | Llega NearLink, seis veces más rápido que Bluetooth | Computer Hoy


https://bit.ly/3LFfdnM

27 septiembre 2023

Diferencias esenciales entre NPU, CPU y GPU en dispositivos inteligentes

Diferencias esenciales entre NPU, CPU y GPU en dispositivos inteligentes

Una de las dudas que suele haber entre muchos usuarios, especialmente entre las personas no tan expertas en el mundo de la tecnología, es la de qué distingue una NPU de una CPU o de una GPU. Pueden sonar muy parecidos, ya que al final se trata de chips que forman parte de dispositivos inteligentes, pero cuentan con grandes diferencias que te detallaremos a continuación.



CPU, la de toda la vida



La CPU es aquella parte del procesador que se encarga de ejecutar las diversas acciones que ordenemos al dispositivo que debe llevar a cabo. La CPU es el componente básico dentro de todo dispositivo inteligente, ya que prácticamente cualquier proceso que se ordene al sistema pasa por él. Con el paso del tiempo, además, su eficiencia y calidad ha alcanzado grandes cotas, aunque tecnologías al alza como las NPU han supuesto un mayor salto cualitativo que el de aumentar la potencia bruta de la CPU.



Por otro lado, la eficiencia también puede ser bidireccional, por lo que los programas y aplicaciones de todo dispositivo también mejoran su funcionamiento para reducir la exigencia a la CPU. Si la CPU no funcionase correctamente, lastraría gravemente la experiencia de cualquier usuario, por lo que se considera una de las piezas más fundamentales de todo sistema.



GPU, para el procesamiento gráfico



La GPU es el apartado que se dedica a las acciones de mayor peso: las de componente gráfico. De este modo, acciones como la ejecución de videojuegos, o la edición y renderizado de vídeos, se llevan a cabo a través de la GPU del sistema. La calidad del teléfono, ordenador u otro dispositivo inteligente, suele ir supeditada a menudo a la calidad de su GPU, que dependerá de la banda de precio del aparato en cuestión. Eso sí, los si otros componentes no tienen su misma calidad, se puede producir el temido cuello de botella.



En los smartphones, la GPU ya va integrada en los procesadores, pero en los PC's, firmas como AMD y NVIDIA se muestran como marcas especializadas en las GPU's. Cuentan con todo tipo de gamas y también poseen un amplio abanico de precios, un valor siempre directamente proporcional a la calidad y capacidad de sus gráficas, y a su vigencia en el mercado.



NPU, redes neuronales en tu dispositivo



La NPU, a diferencia de la GPU, que cuenta con un funcionamiento paralelo al de la CPU, puede encargarse de funciones similares a las de la CPU, pero lo hace de un modo mucho más eficiente. Impulsada por Inteligencia Artificial, una NPU es capaz de priorizar procesos para ejecutarlos de un modo exponencialmente más veloz y con un consumo mucho menor. En móviles, se usa especialmente para mejorar el procesado de fotografías, aunque participa en muchos otros procesos.



Además, esta arquitectura todavía tiene años de progreso por delante, a diferencia de la CPU y la GPU, cuyas mejoras ya son de carácter más leve y basadas en aumentar la potencia bruta. La tecnología NPU, en cambio, lleva menos tiempo entre nosotros y todavía tiene mucho margen de mejora para ofrecer un rendimiento cada vez más poderoso.



Vía |


https://bit.ly/3rz5E2Q

Google discontinuará Google Podcasts en favor de YouTube Music en 2024

Google discontinuará Google Podcasts en favor de YouTube Music en 2024

Google Podcasts es una app que se lanzó en 2018 y que ha sido actualizada en numerosas ocasiones para mejorar sus características. En ese momento los pódcast se estaban convirtiendo en un tipo de contenido en auge, tal como ha sucedido ahora en los dos años pasados con otras plataformas incluyéndolos. Y es que Google ha anunciado hoy que descontinuará Google Podcasts en 2024.



Amazon ha sido otra compañía que ha incluido los pódcast de forma gratuita en su servicio, y la misma Spotify está incluyendo una función maravillosa para traducir la voz de los podcasters en inglés para que en otros idiomas, como el castellano, se pueda reproducir este tipo de contenido tan especial. Incluso Google incluyó este contenido en YouTube Music en julio de este año para que ahora propicie otro movimiento simplemente radical.



Google ha anunciado que la app Google Podcasts va a dejar de estar presente en la Google Play Store, pero lo hace en favor de YouTube Music, ya que va a fusionar el contenido de la primera en la segunda. Es decir, que va a centralizar todos los pódcast a través de YouTube Music para que así, en algún momento del próximo año, se pueda disfrutar de este contenido multimedia desde una única app o servicio.





La razón para eliminar una app que cuenta con más de 500 millones de descargas y una puntuación media de 4,6, se debe a que conoce bien el potencial de este contenido para seguir creciendo de forma continua sin conocer todavía su límite. La idea yace en que muchos de los creadores de este contenido también usan YouTube para las versiones en vídeo del mismo, por lo que tiene todo el sentido desde la perspectiva del gigante tecnológico; que en su haber tendrá los datos para realizar este movimiento tan radical, pero con su gran lógica detrás.



YouTube Music ya acoge a los pódcast desde este mismo año para dejar un poco de lado a la propia app que todavía se puede instalar en los móviles. Echando un vistazo a los movimientos que realiza Google, se podía entender que en algún momento se quitase de en medio a esta app. Ese momento ya ha llegado con el anuncio de hoy.



¿Pódcast con anuncios?



Solamente hay que ver cómo ha tratado la publicación en su blog para dejar constancia de que la migración la va a realizar sin que se genere ningún tipo de experiencia ingrata para el usuario. Los creadores de este contenido en la app podrán usar una herramienta que les permitirá migrar su contenido a YouTube Music. Por otro lado, sus suscriptores podrán suscribirse a los pódcast a través de los feeds RSS en YouTube Music.



Eso sí, antes de que se realice la migración a YouTube Music, los pódcast deberían estar disponibles para todos los usuarios en este servicio. Y es que actualmente Google Podcasts no está disponible en todas las regiones. Algo que cambiará totalmente al estar disponible abiertamente en todo el planeta en YouTube Music. Otra de las opciones que dará Google es la descarga de un archivo OMPL de las suscripciones, así que el paso a otra plataforma será sencillo, si por lo que sea el usuario no quiere utilizar YouTube Music.





El mayor obstáculo de los pódcast en YouTube Music es que, al ser éste un servicio de pago, se cuenta con una plataforma que si no se paga, anda invadida por los anuncios; algo que no cambiará, aunque queda la posibilidad de suscribirse para así acceder sin publicidad. Google también ha ofrecido datos en su blog para que se entienda un movimiento tan transgresivo: cerca del 23 % de los usuarios semanales de pódcast utilizan YouTube frecuentemente en Estados Unidos, contra el 4 % de Google Podcasts.



El gigante tecnológico va a ir lanzando avisos en los siguientes meses para recoger el 'feedback' necesario para así concretar mejor todos los pasos que dará finalmente en la migración a YouTube Music y el cese de los servicios de la app Google Podcasts. De todas formas, hay varias alternativas de gran calidad en Android si no se quiere pasar por YouTube Music para consumir este tipo de contenido. Una de ellas es Reason y la otra Stereo, así que las opciones están ahí puestas sobre la mesa.



Vía | Google cierra un icónico servicio con más de 500 millones de descargas: esta es la nueva alternativa (elespanol.com)


https://bit.ly/46u2a0m

IA decodifica emociones de gallinas a través de vocalizaciones

IA decodifica emociones de gallinas a través de vocalizaciones

El equipo dirigido por el profesor Adrian David Cheok de la Universidad de Tokio ideó un sistema capaz de interpretar varios estados emocionales en las gallinas, incluyendo hambre, miedo, ira, satisfacción, entusiasmo y angustia mediante el uso de una técnica de inteligencia artificial de vanguardia.



La investigación fue publicada en la revista Research Square y detalla los hallazgos del equipo japonés. Según publicaron, el método se basó en la técnica de aprendizaje de análisis emocional profundo. La técnica está "basada en algoritmos matemáticos complejos" e incluso puede usarse para adaptarse a los patrones vocales siempre cambiantes de las gallinas, lo que significa que solo mejora a la hora de descifrar las "vocalizaciones de las gallinas" con el tiempo.



https://twitter.com/adriancheok/status/1703977959160533088?s=20

Para probar su nuevo sistema, el equipo registró y analizó muestras de 80 gallinas. Luego alimentaron estas muestras con un algoritmo para relacionar estos patrones vocales con varios "estados emocionales" de las aves.



Al asociarse con "un equipo de ocho psicólogos animales y veterinarios", los investigadores dicen que pudieron identificar el estado mental de una gallina determinada con una precisión sorprendentemente alta: "Los resultados de nuestros experimentos demuestran el potencial del uso de técnicas de inteligencia artificial y aprendizaje automático para reconocer estados emocionales en pollos en función de sus señales sonoras", expresaron.



En ese sentido agregaron que: "Las altas probabilidades promedio de detección de cada emoción sugieren que nuestro modelo aprendió a capturar patrones y características significativos de los sonidos de las gallinas".



Si bien esto puede parecer prometedor, se debe tomar estos resultados con cautela. Los investigadores reconocieron que la precisión de su modelo puede cambiar con diferentes razas y condiciones ambientales y que "el conjunto de datos utilizado para el entrenamiento y la evaluación puede no capturar toda la gama de variaciones y estados emocionales de los pollos". Luego están las muchas otras formas en que las gallinas se comunican, a partir de "otras señales no acústicas, como el lenguaje corporal y las interacciones sociales".



Vía | Afirman que mediante inteligencia artificial lograron traducir "lo que dicen" las gallinas | Rosario3


https://bit.ly/3ZAtibY

26 septiembre 2023

¿Cuándo llegará Windows 12 y qué traerá consigo? Rumores y expectativas

¿Cuándo llegará Windows 12 y qué traerá consigo? Rumores y expectativas

Desde los primeros días de la informática hasta la actualidad, la sociedad ha sido testigo de cómo los sistemas operativos han avanzado, dando a los usuarios experiencias digitales cada vez más potentes y funcionales. Uno de los más emblemáticos, Windows, ha mantenido su posición en la vanguardia de esta evolución.



La historia de precisamente de este se remonta a Windows 1.0, pero ha experimentado una serie de enormes transformaciones a lo largo de los años, desde Windows 95 hasta la última versión, Windows 11.



Con cada nuevo lanzamiento, los usuarios han estado esperando para conocer las últimas novedades, aunque no siempre con la misma confianza.



En la actualidad, Windows 11 es el sistema operativo que domina el mercado, pero como es típico en la industria tecnológica, siempre se mira hacia el futuro y ya se está hablando de cuándo podría llegar la próxima versión, Windows 12, y qué novedades podría traer consigo.



¿Cuándo saldrá Windows 12?



La fecha de lanzamiento de Windows 12 ha sido un tema de especulación estos últimos meses entre los entusiastas de la tecnología. Aunque Microsoft no ha proporcionado una fecha oficial, solo hay que basarse en su historia de lanzamientos anteriores.



Desde el lanzamiento de Windows 10 en 2015, Microsoft ha adoptado un enfoque de "Windows como servicio", ofreciendo actualizaciones y mejoras periódicas en lugar de nuevas versiones independientes del sistema operativo.



Sin embargo, circulan rumores sobre una actualización importante conocida como "Sun Valley" que podría convertirse en Windows 12. Esta actualización promete un nuevo lenguaje de diseño, mejor rendimiento y nuevas características. Si bien las fechas son especulativas, algunos apuntan a 2024, aproximadamente tres años después del debut de Windows 11.



Nuevas funciones y mejoras en Windows 12



Aunque Microsoft no ha revelado oficialmente los detalles de Windows 12, las filtraciones y rumores han dado algunas pistas sobre lo que se podría esperar. Una característica destacada podría ser una interfaz de usuario rediseñada y modernizada, que incluye nuevos íconos, un menú Inicio renovado y un entorno de escritorio visualmente atractivo.



El rendimiento mejorado es otro punto destacado, con Microsoft trabajando en la optimización de recursos y la capacidad de respuesta del sistema. Esto se traducirá en tiempos de arranque más rápidos y una multitarea más fluida.



La integración con servicios en la nube de Microsoft, como OneDrive y Microsoft 365, también se espera que mejore, dando un acceso fluido a archivos y documentos en todos los dispositivos.



En el ámbito de los juegos, Windows 12 podría ofrecer un mejor soporte para tecnologías como DirectX, una optimización de rendimiento y nuevas funciones para la transmisión en vivo y la interacción social en juegos.



Compatibilidad y requisitos del sistema



En cuanto a la compatibilidad y los requisitos del sistema, Windows 12 se espera que siga siendo compatible con una amplia gama de hardware, incluidos procesadores de 32 y 64 bits, así como varios tipos de dispositivos. Los requisitos de RAM y almacenamiento probablemente serán similares o ligeramente superiores a los de Windows 10.



La compatibilidad con tarjetas gráficas, tanto integradas como dedicadas, se mantendrá, lo que garantizará un buen rendimiento gráfico. Microsoft también seguirá admitiendo software y hardware más antiguos en versiones futuras de Windows.



Windows 11 requiere 4 GB de RAM y 64 GB de almacenamiento interno, por lo que, como mínimo, Windows 12 necesitará lo mismo. Tampoco deberías esperar que Microsoft retroceda en aspectos como los requisitos de TPM.



Windows 12: ¿Una actualización gratuita?



Microsoft ha estado ofreciendo importantes actualizaciones de Windows de forma gratuita a los usuarios durante algún tiempo, lo que probablemente continúe con Windows 12. Sin embargo, la versión completa de Windows 12 no será gratuita para aquellos que no tengan licencias previas de Windows.



La actualización a nuevas versiones de Windows generalmente no es obligatoria, y Microsoft ha disminuido la presión para que los usuarios actualicen por la fuerza. Puede que la actualización sea necesaria solo si tu versión actual de Windows alcanza el final de su período de soporte, como se espera de cara a 2025 con respecto a Windows 10.



Vía | ¿Cuándo saldrá Windows 12?: Fecha de lanzamiento, novedades y requisitos | Computer Hoy


https://bit.ly/3PUtf7q

ChatGPT se actualiza: Voz e imagen para una IA más inteligente

ChatGPT se actualiza: Voz e imagen para una IA más inteligente

ChatGPT sigue a su ritmo y está siendo toda una herramienta para todo tipo de funciones. El impacto que ha hecho en muchos ámbitos de la sociedad en este año quedará para la historia y la idea de OpenAI, sus creadores, es que siga marcando nuevos hitos como su nueva y apasionante actualización: ahora ve, escucha y habla.



Amazon sorprendió la semana pasada con el anuncio de una 'Alexa' más inteligente gracias a la inclusión de la IA generativa. Si en estos meses las noticias han rondado por las capacidades de este tipo de IA generativa, también llevada a la generación de imágenes, ahora comienza otro tipo de carrera: asistentes con IA generativa que sean capaces de responder naturalmente tal como se hace desde el texto.



Hace unos minutos OpenAI ha anunciado el despliegue de las capacidades de imagen y voz en ChatGPT. Se ofrece así una nueva interacción más intuitiva y natural al permitir tener una conversación de voz o mostrar a ChatGPT de qué se está hablando. Se abre una experiencia totalmente nueva para abordar nuevas formas de entablar comunicación con la IA de OpenAI.



Ve, escucha y habla



Por ejemplo, se puede tomar una foto de un paisaje cuando se está viajando para pasársela a ChatGPT y así tener una conversación sobre los puntos de interés de la misma, o, cuando se esté en casa, hacer una foto al interior del frigorífico para que la IA muestre recetas que se pueden hacer con lo que se tiene en la nevera. O tomar una foto de un trabajo de los más peques en el que aparecen problemas matemáticos que la IA solucionará en segundos.



Ahora queda preguntarse por la disponibilidad de esta gran novedad de ChatGPT. OpenAI ha mencionado que la voz y las imágenes en ChatGPT están disponibles para los suscriptores de Plus y Enterprise en las dos próximas semanas. La voz sí llegará a la app de Android e iOS a la vez que las imágenes que se harán disponibles próximamente.



https://twitter.com/OpenAI/status/1706280618429141022?s=20

OpenAI muestra desde su web la gran capacidad en el habla de ChatGPT con distintos ejemplos. Incluso es capaz de entonar una poesía para dotarla de mayor expresividad. Hay hasta cinco disponibles desde su web para poder apreciar las diferencias entre la explicación de una receta, una historia, discurso, poema y explicación.



En el momento que esté disponible bajo esas suscripciones, se puede acceder en la app de Android e iOS a través de los ajustes y luego a nuevas características. Se activa la función, y se puede elegir la voz preferida entre cinco distintas desde la esquina superior derecha de la pantalla principal de la app. Esta nueva capacidad para la voz usa el nuevo modelo de 'text-to-speech' (texto a voz), que es capaz de generar voces humanas desde el texto y unos cuantos segundos de un ejemplo de una voz.



Para lograr los increíbles resultados que se pueden probar desde ya en su web, aunque estén en inglés, OpenAI ha colaborado con actores de voz profesionales para la creación de cada voz. La herramienta usada para el sistema de reconocimiento de voz es Whisper, una open-source que se encarga de transcribir la voz a texto.



Chatea con imágenes



Otra de las novedades de ChatGPT es su capacidad para comentar cualquier imagen o foto que se le suministre. Aquí los ejemplos para su uso son casi ilimitados, ya que puede desde solucionar un problema sobre la placa de la cocina, explorar lo que se tenga en la nevera o analizar problemas complejos. De hecho, incluso se puede usar la herramienta de dibujo para que ChatGPT se centre en esa parte de la imagen.





En la app para Android e iOS está presente esta funcionalidad desde el botón '+' para así hacer una foto con el móvil o tomar una de la galería. También ofrece la opción de subir varias imágenes para que ChatGPT las comente, o la herramienta dicha de dibujo. Aquí entra en juego GPT-3.5 y GPT-4 para entender las imágenes que se comparten y ambos son capaces de interpretar documentos, capturas de pantalla y fotografías, por lo que se abre una capacidad casi infinita con esta gran novedad de la IA generativa de OpenAI.



OpenAI aclara que la nueva tecnología de voz, capaz de crear voces sintéticas realistas en unos segundos, abre enormes posibilidades para la creatividad y aplicaciones enfocadas a la accesibilidad, pero también para un uso indebido de esta apasionante tecnología (y es que esta tecnología ya se usa para replicar voces de otros). Por lo que su uso estará basado en un caso en específico: el chat de voz. Incluso han colaborado con Spotify para utilizarla para su función de traducción de voz para podcasts. Es decir, que se traducirán al español y otros idiomas los podcasts en inglés de Spotify. Una novedad anunciada por la plataforma de streaming que llegará próximamente después de unas pruebas con una serie de podcasts en el idioma anglosajón.



Los nuevos desafíos



También, los modelos basados en la visión presentan un gran abanico de nuevos desafíos, desde 'alucinaciones' sobre personas a la interpretación de imágenes en dominios de alto riesgo (extremismo y competencia científica). OpenAI ha declarado que han realizado diversas pruebas para asegurarse que su uso sea responsable.



Otra de las grandes virtudes y soluciones que ofrece ahora ChatGPT es para la visión. Está trabajando con Be My Eyes, una app gratuita para móviles que ayuda a personas con problemas de visión para así entender sus usos y limitaciones. Gracias a este trabajo de investigación el equipo detrás de la IA generativa ha sido capaz de limitar el poder ChatGPT para analizar y hacer declaraciones directas sobre personas que pudiesen aparecer en el fondo de una foto.



De momento, OpenAI ha anunciado desde su web que la capacidad para transcribir la voz a texto funciona perfectamente en inglés, pero su rendimiento cae bastante en otros idiomas, sobre todo en aquellos que no están basados en lenguas romances. De hecho, avisa de que los usuarios que no hablen inglés mejor se esperen para usarlo correctamente, ya que puede generar confusión y una experiencia distinta.



Vía | ChatGPT ahora puede ver, te escucha y te habla: OpenAI anuncia una histórica actualización en tu móvil (elespanol.com)


https://bit.ly/46no6dF

Microsoft presenta el nuevo cliente de Outlook para Windows

Microsoft presenta el nuevo cliente de Outlook para Windows

El cliente de correo electrónico en Windows lleva un buen tiempo siendo la opción por defecto del sistema operativo para que los usuarios puedan acceder a sus cuentas sin necesidad de descargar otra app o entrar desde el navegador. Sin embargo, desde el año pasado, Microsoft ha ido mostrando las capacidades del nuevo cliente de Outlook, que llega totalmente renovado a Windows.



Si bien en 2022 llegó al canal beta, no ha sido hasta este momento cuando el nuevo Outlook ha sustituido finalmente a la aplicación de Correo en Windows. Este nuevo diseño ya está llegando a todos los usuarios, aunque si echas en falta el diseño de la antigua app de Correo, todavía podrás volver atrás.



Un diseño que sustituye a la antigua app de Correo en Windows



La app nativa de Outlook para Windows se inspira ampliamente en la versión de este cliente de correo para navegadores. Y es que además de la bandeja de entrada y carpetas de nuestras cuentas de correo, también tendremos un acceso directo a las principales aplicaciones de Microsoft 365, entre ellas Word, Excel, To Do, PowerPoint y más.



Junto a ello, también tendremos acceso al propio calendario de Outlook para así tener todos los servicios de Microsoft 365 integrados en un único cliente. Eso sí, el acceso directo a estas aplicaciones nos llevará a sus respectivas versiones web.





Este nuevo cliente es prácticamente idéntico a la versión web de Outlook, ofreciendo un diseño muy similar. Sin embargo, al ser un cliente nativo, su funcionamiento es más eficaz. Además, dispone de algunas características que nos vendrán muy bien a la hora de gestionar nuestros correos y demás tareas.



Por ejemplo, la app te puede recordar responder a un correo que se haya considerado como importante. En este caso, el aviso aparecerá en lo más alto de la lista para no perderlo de vista hasta que hayamos completado la tarea o la hayamos ignorado.



Otra característica interesante es la función de 'Mi día', situada en la parte superior derecha de la app. Aquí, además de mostrarnos el calendario, también contamos con una lista de tareas donde podemos ir arrastrando correos a ella para tenerlos controlados, una función traída de la propia versión web.



El nuevo Outlook incorpora además el calendario integrado, siendo un ejemplo más de que Microsoft quiere ofrecer a sus usuarios una aplicación todo en uno a nivel laboral y productiva. La app de Correo necesitaba un cambio, y parece que Microsoft se lo ha dado por completo.



El principal inconveniente del nuevo Outlook en Windows es la integración de anuncios directamente en nuestras bandejas de entrada, apareciendo en forma de correos electrónicos que podríamos abrir por error. Para poder deshacernos de ellos, tendremos que adquirir alguno de los planes de Microsoft 365.



https://dai.ly/x8o8aat

Sin embargo, si lo que quieres es volver a la versión antigua de la app de Correo, puedes desactivar el interruptor de ‘Nuevo Outlook’ situado en la esquina superior derecha para volver a la anterior aplicación de Correo. Cabe decir que este botón es una forma de retrasar lo inevitable, ya que la compañía tiene intenciones de pasar a este nuevo cliente por completo y eliminar la antigua app de Correo a partir del próximo año.



Otra cuestión a tener en mente es el hecho de que Copilot llegará próximamente a este nuevo cliente para impulsar nuestra experiencia con los correos mediante la ayuda de la IA. El ChatGPT de Microsoft se integrará en dicho cliente para ayudarnos a hacer resúmenes, gestionar nuestro correo y mucho más.



Vía | El nuevo cliente de Outlook aterriza a todos los usuarios de Windows 10 y 11: Microsoft sustituye la antigua app de Correo (genbeta.com)


https://bit.ly/464N0iB

25 septiembre 2023

Elon Musk de Neuralink: Implantes Cerebrales para Extremidades Robóticas Inspiradas en Star Wars

Elon Musk de Neuralink: Implantes Cerebrales para Extremidades Robóticas Inspiradas en Star Wars

La empresa de redes neuronales, fundada por Elon Musk en 2016, pretende utilizar sus implantes para ayudar a las personas con parálisis y cuadriplejía a recuperar el movimiento de todo el cuerpo.



En una reciente publicación en Twitter (ahora conocido como X), el actual dueño de la red social ha sugerido que el implante cerebral de Neuralink podría combinarse con la tecnología del robot Optimus de Tesla para hacer realidad la "solución Skywalker", es decir, producir extremidades robóticas al estilo de lo visto en el universo Star Wars.



"El primer paciente humano pronto recibirá un dispositivo Neuralink. En última instancia, esto tiene el potencial de restaurar el movimiento de todo el cuerpo.



A largo plazo, Neuralink espera desempeñar un papel en la reducción del riesgo de civilización de la IA mejorando el ancho de banda de humano a IA (y de humano a humano) en varios órdenes de magnitud.



Imagínate si Stephen Hawking hubiera tenido esto.



Cuando un Neuralink se combina con las extremidades del robot Optimus, la solución de Luke Skywalker puede volverse real", comenta Elon Musk a través de sus publicaciones, donde afirma que en un futuro no muy lejano podríamos tener manos robóticas como la de Luke Skywalker en la famosa franquicia galáctica.



Elon Musk y sus numerosas polémicas



Los comentarios de Elon Musk sobre la nueva tecnología y su comparativa con Star Wars se produjeron cuando Neuralink enfrentó una nueva controversia sobre la muerte de monos a los que se les implantó el chip cerebral de la compañía.



En una carta a la Comisión de Bolsa y Valores, el Comité de Médicos para una Medicina Responsable dijo que Musk había engañado a los inversores al decir que ningún mono murió como resultado directo del implante y que Neuralink solo utilizó animales con enfermedades terminales en sus ensayos.



Dicha carta, la cual fue compartida originalmente por Wired, citaba registros veterinarios que mostraban que los monos a los que se les había implantado el chip experimentaban dolor extremo y síntomas que incluían diarrea con sangre, parálisis e inflamación cerebral.



El Comité de Médicos pidió a la SEC que investigue el asunto y "penalice a Neuralink y Musk de forma adecuada". Por su parte, Neuralink recibió la aprobación de la FDA para comenzar los ensayos en humanos en mayo.



Vía | Elon Musk asegura que Neuralink podría hacer realidad “la solución de Luke Skywalker” | Hobby Consolas



¿Qué te parece la polémica que hay con Elon Musk y Neuralink? Cuéntanos tus opiniones sobre el tema en nuestro apartado de comentarios.


https://bit.ly/46mwj1G

Google Integra Bard en YouTube, Gmail y Drive para Mayor Colaboración

Google Integra Bard en YouTube, Gmail y Drive para Mayor Colaboración

La nueva movida de la inteligencia artificial generativa es la integración con otras aplicaciones. Se espera que Chat GPT 5 de un salto cualitativo a permitir que su IA tenga a acceso a diferentes apps pudiendo por ejemplo postear algo en en las redes sociales del usuario o realizando una compra. Es un camino cuyo norte es hacer de la IA una interfaz inteligente que toma el control de la computadora.



Google conoce ese camino y dispone de un gran abanico de aplicaciones que los usuarios adoran como Google Maps o Gmail. Ahora, acaban de tomar la delantera dentro de la carrera de la IA al integrar su chatbot de inteligencia artificial Bard en aplicaciones como YouTube, Gmail y Drive.



Bard se incorpora en aplicaciones de Google como Gmail, Docs, a través de "Extensiones Bard", lo que permite a los usuarios colaborar con el chatbot mientras utilizan servicios como Gmail y Google Docs, según anunció el martes Yury Pinsky, director de desarrollo de productos de la herramienta. “Bard puede acceder a varias aplicaciones a la vez a través de una única conversación” revela Pinsky.



Por ejemplo, si un usuario está planeando un viaje, Bard puede consultar Gmail para ver qué fechas le vienen mejor y, a continuación, consultar información sobre vuelos y hoteles, luego Maps para obtener indicaciones sobre cómo llegar al aeropuerto y YouTube para ver vídeos sugeridos de cosas que hacer durante el viaje.



Varios usuarios pueden compartir el mismo chat de Bard a través de un único enlace, lo que permite a cada uno de ellos formular preguntas adicionales.



https://youtu.be/lr87yrvK86w

Bard también incorporará ahora un botón "Búscalo en Google" que permitirá a los usuarios volver a comprobar las respuestas dadas por el chatbot, que resaltará si las respuestas están respaldadas por otras fuentes en línea.



Entre las novedades se incluyen:



El modelo de Google más inteligente hasta ahora. Los comentarios de los usuarios y las actualizaciones realizadas en el modelo PaLM2, permiten que Bard sea más intuitivo, imaginativo y receptivo en diferentes idiomas y países. Ahora, Bard permite que las personas puedan colaborar en proyectos creativos, comenzar en un idioma y continuar en más de 40 idiomas, solicitar asistencia de codificación en profundidad o conocer diferentes puntos de vista con mayor calidad y precisión.



Bard Extensions. Ahora, Bard puede consultar información en tiempo real de Maps, YouTube, Hoteles y Vuelos. Estas extensiones están habilitadas de forma predeterminada y se pueden deshabilitar en cualquier momento. Además, brindando acceso a Bard, se puede permitir que interactúe con Gmail, Documentos y Drive para encontrar, resumir y responder preguntas. Los datos de Google Workspace no se utilizarán para entrenar el modelo público de Bard. También se habilitará el uso de prompts mixtos para que estas extensiones sean aún más útiles.



Verificador de respuestas. Se podrá utilizar el Buscador, a través del botón en Bard, para verificar las respuestas generadas. Comenzando con el inglés, cuando se pueda evaluar una afirmación, se verá resaltada en la respuesta de Bard y se podrá clickear para obtener más información. Es importante tener en cuenta que los enlaces proporcionados son contenido encontrado por el Buscador y no implica que estas fuentes han informado la respuesta inicial de Bard.



Partir de conversaciones compartidas. Si alguien comparte una conversación de Bard a través de la función de intercambio de enlaces públicos, se podrá continuar esa conversación en la cuenta personal y construir sobre lo que otros iniciaron.



El bot registró algo menos de 200 millones de visitas a páginas web desde PCs y teléfonos móviles en agosto, según la empresa de análisis de datos Similarweb. ChatGPT de OpenAI registró 200 millones de visitas ese mismo mes.



https://youtu.be/d2QPWvbAacw

Bard Extensions se lanzó casi seis meses después de que OpenAI anunciara los complementos de ChatGPT, que permiten al chatbot acceder a información actualizada y servicios de terceros desde otras aplicaciones, como Expedia, OpenTable e Instacart, entre otras.



Google incorporó Bard a su motor de búsqueda en mayo en un esfuerzo por ampliar el uso del chatbot a través de los productos de Google, después de que Microsoft integrara una tecnología similar a ChatGPT en su motor de búsqueda Bing en febrero.



La decisión de Google de añadir la función "Búscalo en Google" a las respuestas de Bard se produce tras la preocupación de que los chatbots de IA "alucinen" con los hechos, después de que OpenAI advirtiera de que su propio chatbot podría "generar ocasionalmente información incorrecta" o "producir instrucciones perjudiciales o contenido sesgado".



Todas las nuevas funciones son posibles gracias a las actualización que Google realizó en su modelo PaLM 2, de inteligencia artificial generativa, el más capaz hasta la fecha de la compañía dado a conocer al púbilco. Pero en realidad en Google Mind están enfocados en Gemini el proyecto disruptivo en el que Google apuesta todas sus fichas.



https://youtu.be/SEhk67R4R9g

"Gemini se creó desde cero para ser multimodal", comenta el director ejecutivo de Google, Sundar Pichai. "Aunque todavía es temprano, ya estamos viendo capacidades multimodales impresionantes que no se ven en modelos anteriores".



La multimodalidad es un área reciente dentro de la IA Generativa para que los modelos trabajen simultáneamente con diversos tipos de datos como texto, sonidos e imágenes.



La decisión que tomó Google de permitir un acceso temprano a Gemini a un selecto grupo de empresas anticipa que el modelo de IA está cerca de su lanzamiento comercial. Se especula que Google podría incorporar Gemini a sus servicios al consumidor y venderlo a empresas a través de su unidad de nube.



Se espera que la decisión de ponerle precio a Gemini le reporte a Google una fortuna, ya que varias entidades buscan aumentar sus inversiones en IA.



En una entrevista con Wired , publicada hace unos días, Pichai proporcionó la indicación más inequívoca de cómo Gemini encaja en la hoja de ruta de productos de Google. El ejecutivo afirmó que los sistemas de IA conversacionales como Bard “no son el estado final”, sino puntos de referencia que conducen a chatbots más avanzados.



Pichai dijo que Gemini y las versiones futuras se convertirán en última instancia en “increíbles asistentes personales universales” integrados en la vida diaria de las personas en áreas como viajes, trabajo y entretenimiento. Además, reiteró que Gemini combinará los puntos fuertes del texto y las imágenes, de una forma tal que los chatbots de hoy “parecerán triviales” en comparación dentro de unos años.



Vía | Bard se vuelve más inteligente al integrar aplicaciones, pero la gran sorpresa de Google en IA Generativa será Gemini - Forbes Argentina


https://bit.ly/3EQLep5

Curso Gratuito de Google en TensorFlow.js para Desarrolladores de IA

Curso Gratuito de Google en TensorFlow.js para Desarrolladores de IA

¿Quieres aprender de inteligencia artificial? Google trae para ti este curso que es gratis y en modalidad online. Te brindamos toda la información necesaria, ¿qué esperas para adentrarte a este mundo?



El mundo de la inteligencia artificial ha tomado mucho auge, y no es para menos. De acuerdo con la empresa International Business Machines la inteligencia artificial >



Esta tecnología ha llegado para poder imitar o igualar la inteligencia de los seres humanos, encargándose de realizar actividades que impliquen tecnología. Y aunque a muchas personas les cause temor, la realidad es que la inteligencia artificial solo ha venido a hacernos las tareas más sencillas.



Si tienes las ganas o necesidad de aprender sobre uno de los tantos caminos de la inteligencia artificial, entonces quédate porque esta nota puede importarte mucho.



Todo acerca del curso



Google AI para desarrolladores de JavaScript con TensorFlow.js



Principalmente, tienes que saber que el curso:



- Tiene una duración de 7 semanas, cumpliendo con 3 o 4 horas POR semana

- Tú eliges tu propio horario, es decir, aprenderás a tu ritmo, sin presiones

- Tiene modalidad online (en línea)

- No tiene costo alguno, aprender es gratis.

Este curo es para interesado en aprender > relata el blog oficial.



El curso es de Google, pero estará siendo impartido mediante el sitio oficial de EdX, y lo único que se necesita será tener habilidades en:



- Tener conocimiento básico y práctico de tecnologías web: HTML, CSS y JavaScript.

- Aprendizaje profundo

- Aprendizaje automático

- Matemáticas básicas

- Inteligencia artificial



Aprenderás



- Conceptos básicos

- Cómo funciona el aprendizaje automático

- Una entrada completa a la biblioteca de TensorFlow.js

- Ventajas de usar ML en JavaScript

- Cómo crear modelos de Machine Learning

- Qué es un tensor en el aprendizaje automático

- Cómo utilizar modelos de redes neuronales para imágenes

- Cómo convertir modelos de Python a JavaScript

Dicho curso tendrá como instructor a al Ingeniero de relaciones con desarrolladores para TensorFlow.j Jason Mayes.



Si te interesa el curso, lo mejor será que entres a la página cuanto antes y te inscribas, ya que el curso tiene una fecha de inicio del día 23 de septiembre del presente año, es decir, hoy mismo, por tanto, aún estás a tiempo de poder tomar este grandioso aprendizaje e iniciarte en el mundo avanzado de la tecnología.



Recuerda que es totalmente gratuito, por lo que no tendrás que preocuparte por el dinero, así como tampoco tendrás que preocuparte por traslados o tiempos. El curso tiene una modalidad en línea, por lo cual, solo deberás tener a la mano tu celular o computadora, y podrás hacerlo a tu tiempo, sin presiones, a la hora que tú desees.



Puedes inscribirte e ingresar al curso AQUÍ.



Vía | Google lanza curso GRATUITO en línea para aprender sobre Inteligencia Artificial – Enséñame de Ciencia (ensedeciencia.com)


https://bit.ly/48GQppB

22 septiembre 2023

China Advierte Contra Restricciones a Huawei y ZTE en Redes 5G Alemanas

China Advierte Contra Restricciones a Huawei y ZTE en Redes 5G Alemanas

El régimen de China no se quedará de brazos cruzados si el Gobierno alemán decide restringir el uso de componentes de empresas chinas como Huawei y ZTE en su red 5G, advirtió este jueves la embajada china en Berlín.



“Si el Gobierno alemán decide realmente avanzar en esta dirección sin demostrar que los productos chinos suponen una amenaza para la seguridad de Alemania, no nos quedaremos de brazos cruzados”, señaló la embajada en un comunicado enviado por correo electrónico a la agencia Reuters.



“Si Alemania excluye injustificadamente a las empresas chinas, esto no sólo sería una violación del principio de competencia leal, sino que también perjudicaría a las empresas chinas y a la propia Alemania”, agregó la embajada china, al tiempo que recordó que Huawei y ZTE llevaban mucho tiempo operando en Alemania en armonía con la legislación alemana.



El Ministerio del Interior alemán planea obligar a los operadores de telecomunicaciones a reducir drásticamente el uso de equipos de Huawei y ZTE en sus redes 5G, después de que una revisión pusiera de manifiesto una dependencia excesiva de estos proveedores chinos, según explicó un responsable del Gobierno.



El ministerio diseñó un enfoque escalonado para evitar demasiados trastornos a medida que los operadores eliminan todos los componentes críticos de los proveedores chinos en sus redes centrales 5G para 2026, apuntó el responsable.



Los operadores, como Deutsche Telekom y Vodafone, también deben reducir la proporción de componentes chinos en sus redes RAN y de transporte para el 1 de octubre de 2026, hasta un máximo del 25%, dijo el responsable, que declinó ser nombrado.





Huawei representa actualmente el 59% de las redes RAN 5G de Alemania, según un estudio de la consultora de telecomunicaciones Strand Consult.



En regiones especialmente sensibles como la capital, Berlín, sede del Gobierno federal, la tecnología china no debería utilizarse en absoluto, consideró el responsable alemán, una distinción que Stand Consult calificó de “arbitraria”.



“No es lógico que sólo se dé prioridad a los ciudadanos y las empresas de las grandes ciudades para que dispongan de redes seguras, mientras que se considera que los 79 millones de ciudadanos del resto de Alemania viven en zonas seguras o de menor riesgo”, afirmó la empresa.



El Ministerio del Interior quiere presentar su planteamiento al Consejo de Ministros la semana que viene, pero podría encontrar resistencia en el Ministerio de Asuntos Digitales por temor a que afecte al ya lento avance de Alemania en la digitalización.



Un portavoz del Ministerio dijo que aún no se había tomado ninguna decisión y añadió que era importante garantizar que el acceso a internet móvil siguiera siendo estable, rápido y rentable.



Alemania se considera rezagada en la aplicación del conjunto de medidas de seguridad de la Unión Europea para las redes 5G. Las medidas se acordaron hace tres años para frenar el uso de proveedores que el bloque considera de “alto riesgo” -incluidos Huawei y ZTE- debido a la preocupación por posibles sabotajes o espionaje. Las dos empresas niegan que sus equipos supongan un riesgo para la seguridad.





La semana pasada, el Gobierno dijo en respuesta a una investigación parlamentaria que hasta ahora no había prohibido el uso de ningún nuevo componente crítico chino en las redes 5G desde que entró en vigor en mayo de 2021 una ley de seguridad informática que se lo permite.



“Es incomprensible que (la ministra del Interior, Nancy) Faeser permita que se sigan utilizando componentes de Huawei en nuestras redes móviles”, manifestó Reinhard Brandl, portavoz de política digital del grupo parlamentario de los conservadores de la oposición.



El uso de Huawei por parte de Alemania, en particular, ha sido objeto de escrutinio público en los últimos dos años, dada la postura más dura del Gobierno respecto a China y su búsqueda de reducir su dependencia de países individuales a la luz de la crisis energética provocada por la dependencia alemana del gas ruso.



El Ministerio del Interior ha llegado a la conclusión de que hay una “necesidad urgente” de actuar para evitar un segundo Nord Stream, dijo el responsable, en referencia a los gasoductos destinados a llevar gas ruso barato a Alemania, pero que ya no están en uso.



Vía | Alemania analiza limitar el uso de Huawei y ZTE en sus redes 5G: China advirtió que no se quedará de “brazos cruzados” - Infobae


https://bit.ly/3sWQSTW

Vacante como Asistente Legal de Inmigración: Trabaja como Nómada Digital

Vacante como Asistente Legal de Inmigración: Trabaja como Nómada Digital

Durante la pandemia una de las formas de trabajo que se hizo popular fue el home office, el mantenerse conectado a una red de internet para poder desarrollar las actividades que normalmente podrías hacer en la oficina. En este período también comenzó a definirse el nómada digital, una persona que solo necesita wifi para desempeñar su ocupación o vender sus conocimientos a otras personas o empresas de manera remota y tener una vida mientras viajas.



Si estás interesado en este tipo de trabajo te traemos una nueva vacante de Estados Unidos para trabajar por 34 dólares la hora de manera remota, sin importar en qué parte del mundo te encuentres. Atrévete a ser un nómada digital y seguir disfrutando de la libertad de movimiento, de un estilo de vida mucho más flexible para realizar diferentes actividades. Al ser nómada digital puedes obtener la idea de estar en un sitio para trabajar, sino simplemente tomar las riendas de trabajar mientras viajas; por eso toma nota de esta vacante.



Trabaja como nómada digital por 34 dólares la hora



La vacante es para ocupar el puesto de Asistente Legal de Inmigración, donde podrás obtener un salario de 34 dólares la hora, si quieres aplicar debes mostrar interés y aptitudes para apoyar los derechos de los inmigrantes, atender a medida que avanzan en un proceso legal estratégico, así como saber que puedes marcar la diferencia en la vida de los clientes.





Debes comunicarte con tus clientes durante todo el periodo que estén integralmente informados sobre el proceso, colaborar con el equipo legal para comprender la estrategia legal en cada caso, preparar notas, memorandos concisos y completos a lo largo del caso, mantener archivos organizados y actualizados de los abogados preparados en cada paso del caso, etc. Puedes aplicar en la siguiente liga.



Entre los requisitos es ser bilingüe en inglés y español, título universitario o certificado de asistente legal, experiencia como asistente legal de inmigración, capacidad para comunicarse, ser organizado, excelente conocimiento en programas básicos de Office, fuertes habilidades de mecanografía y eficiencia en informática. La oficina principal está en Berkeley, California, aunque hemos estado trabajando en gran medida de forma remota desde marzo de 2020. Este puesto puede ser 100 % remoto para el candidato adecuado.



Vía | EU busca nómadas digitales para trabajo remoto por 34 dólares la hora: REQUISITOS | Escapada H


https://bit.ly/3rnvabk

Coca-Cola lanza edición limitada creada con IA: Coca-Cola Y3000 Zero Sugar

Coca-Cola lanza edición limitada creada con IA: Coca-Cola Y3000 Zero Sugar

Hasta ahora, la inteligencia artificial ha ayudado a estudiantes, profesionales o a cualquier persona del mundo, a obtener mayor información o incluso a conseguir ciertos avances en su vida profesional, y también son cada vez más las firmas, las que están utilizando estos avances para crear productos.



No obstante, se ha utilizado la inteligencia artificial para crear guiones de cine, también para crear cartas en restaurantes o incluso también para diseñar el futuro de las bebidas refrescantes.



Y Coca-Cola no podía faltar a estos avances, y ha presentado la que es la primera bebida creada utilizando tecnología de inteligencia artificial, aunque no para su composición.





En concreto Coca-Cola ha anunciado su primera bebida gaseosa creada con inteligencia artificial, en concreto han llamado a esta edición limitada Coca-Cola Y3000 Zero Sugar.



Según parece, la inteligencia artificial solo ha sido utilizada para desarrollar perfiles de sabor y diseñar el embalaje exterior del producto, entre lo que se incluye el logotipo y el texto.



En lo que respecta al sabor, parece que es exactamente el mismo, y en ese caso no ha intervenido la inteligencia artificial.





Llegará a Europa



Cada lata o botella de esta edición limitada de Coca-Cola Y3000 incluye un código QR que redirige directamente a Coca-Cola Creations, donde los usuarios pueden recibir más información al respecto de este lanzamiento.



“Después de inclinarnos hacia la realidad aumentada el año pasado, estamos adoptando el poder de la IA y continuamos desarrollando las capacidades de nuestra empresa en este apasionante espacio. Coca‑Cola Creations ha creado nuevos caminos para profundizar nuestro compromiso con los fanáticos existentes y aquellos que tal vez no hayan considerado la marca antes”, explican.



Lo más interesante al respecto es que esta edición limitada de Coca-Cola Y3000 no solo saldrá en Estados Unidos y Canadá, sino también en otros sitios como África, China y Europa.



Vía | Coca‑Cola Y3000, el primer refresco del mundo desarrollado con inteligencia artificial | Computer Hoy


https://bit.ly/48twQAX

21 septiembre 2023

Actualización Potente de Alexa: Conversaciones Naturales y Tareas Avanzadas con IA

Actualización Potente de Alexa: Conversaciones Naturales y Tareas Avanzadas con IA

Alexa está a punto de recibir la mayor actualización de su historia de la mano de la inteligencia artificial generativa. En su evento de hardware y servicios de este miércoles, Amazon anunció una nueva versión de su asistente virtual que será potenciada por un modelo de lenguaje de gran tamaño (LLM) hecho a medida.



Gracias a esta tecnología, que se integrará a todos los dispositivos Echo ya existentes, como también a los que llegarán al mercado desde 2024, Alexa se convertirá en un chatbot para el hogar inteligente. Un cambio drástico y que podría significar la salvación de un producto que, hasta no mucho tiempo atrás, parecía condenado al fracaso.



La idea de Amazon es que Alexa mantenga muchas de las características que ha incorporado desde su lanzamiento, especialmente en lo relacionado con el control de dispositivos conectados. Sin embargo, su integración con la IA generativa permitirá sacarle mayor provecho al uso de información en tiempo real y le dotará de mejores características conversacionales.



Esto último probablemente sea el cambio más notorio a simple vista. Según Amazon, la nueva versión del asistente virtual se ha entrenado combinando su modelo de inteligencia artificial con la información capturada con las cámaras, micrófonos y el sistema de detección de presencia de sus Echo.



Así han conseguido que Alexa brinde respuestas más fluidas y con menos latencia, lo cual también le permite sostener una conversación extendida con las personas. Además, es capaz de comprender matices y la ambigüedad de las palabras, permitiendo que su uso se sienta menos "acartonado" o, al menos, no tan atado al uso de comandos demasiado específicos.



Pero eso no es todo. El nuevo Alexa será capaz de modular el tono de las respuestas según el contexto. "Pregúntale a Alexa si tu equipo ganó y te responderá con voz alegre si es así; si perdieron, la respuesta será más empática. Pídele una opinión a Alexa y la respuesta será más entusiasta, como si un amigo estuviera compartiendo un punto de vista", indicaron desde la compañía.



Amazon apuesta por darle una utilidad real a su asistente virtual



https://youtu.be/UqS3NxJ2L_I

La evolución de Alexa pretende ser mucho más que un artilugio integrado en sus dispositivos. Los de Andy Jassy apuntan a que el nuevo asistente tenga una utilidad real y que se vuelva una herramienta clave para el uso cotidiano. Así, por ejemplo, lo han dotado con la capacidad de comprender y programar rutinas complejas dictadas con la voz.



De todas maneras, el uso de la IA generativa también permite que Alexa ofrezca funciones dignas de ChatGPT o Bard. Esto significa que puedes pedirle que escriba el borrador de un correo electrónico siguiendo parámetros específicos. Una vez que se complete la tarea, el texto se envía a la app para móviles.



Además, es capaz de crear (y recitar) historias y poemas sobre cualquier tema que se le proponga. O, incluso, recomendar y reproducir las canciones más populares de distintos géneros musicales. "Hasta donde sabemos, esta es la mayor integración de un LLM, servicios en tiempo real y un conjunto de dispositivos, y no está limitada a la pestaña de un navegador web", indicó Amazon.



Alexa, conversemos



Otro elemento interesante es que el nuevo Alexa se podrá invocar utilizando la frase "Alexa, let's chat" ("Alexa, conversemos"), aunque no siempre será necesario. En dispositivos como el Echo Show, se podrá iniciar una conversación con solo mirar la pantalla. Aunque para ello será necesario contar con Visual ID activado.



La próxima versión de Alexa basada en la inteligencia artificial generativa funcionará en todos los dispositivos de Amazon. Esto no es menor, puesto que también llegará al Echo original que se lanzó en 2014. La versión preliminar del asistente estará disponible próximamente de forma gratuita, aunque solamente en Estados Unidos.



Lo que la compañía todavía no ha definido es si esta evolución se ofrecerá de forma gratuita por siempre. Pero Amazon ya abrió la puerta a que los usuarios deban pagar para acceder a la nueva tecnología. "La idea de un asistente sobrehumano que pueda potenciar tu hogar inteligente y más, como realizar tareas complejas en tu nombre, podría proporcionar suficiente utilidad como para que terminemos cobrando algo por ello en el futuro", le manifestó David Limp, actual líder de servicios y dispositivos de la empresa, a The Verge.



Vía | Alexa será un chatbot para el hogar conectado, gracias a la IA (hipertextual.com)


https://bit.ly/3PLqNjQ

Filtrados Detalles de la Poderosa GPU RTX 5090 de NVIDIA

Filtrados Detalles de la Poderosa GPU RTX 5090 de NVIDIA

Hace apenas un año, el mundo de la tecnología presenció el lanzamiento impactante de la RTX 4090, una tarjeta gráfica que dejó a muchos boquiabiertos debido a sus impresionantes especificaciones y su precio. Sin embargo, a medida que algunos aún están reuniendo los fondos necesarios para adquirirla, ya se vislumbran en el horizonte los primeros detalles de lo que promete ser un verdadero titán: la RTX 5090 de NVIDIA. Aquellos que han tenido acceso al hardware aseguran que esta nueva GPU superará con creces al actual buque insignia de la arquitectura Ada Lovelace de las GeForce RTX 40.



Según las declaraciones de varios insiders recopiladas por el equipo de VideoCardz, la RTX 5090 se perfila como una auténtica máquina de poder. La fuente principal de estos rumores es Panzerlied, un filtrador que ya había revelado planes previos de NVIDIA, sus afirmaciones cuentan con el respaldo de Kepite7kimi, otro de los insiders más respetados en el ámbito tecnológico.



Se espera que las GPU Blackwell, como se ha dado a conocer que se llamará a la sucesora de la arquitectura Ada Lovelace, lleguen al mercado en 2025 y abarquen tanto las unidades de servidores como las destinadas a equipos personales. En cuanto a las especificaciones, Panzerlied ha hecho grandes promesas en comparación con la RTX 4090, la actual joya de la corona de NVIDIA:





- Un aumento del 50% en el número de núcleos.



- Un incremento del 52% en el ancho de banda de memoria.



- Un impresionante aumento del 78% en la caché L2.



- Un aumento del 15% en las frecuencias boost.



- Un impresionante aumento del 70% en el rendimiento general.



Estos números son realmente sorprendentes, con una velocidad de memoria de 32 Gbps, VRAM GDDR7 y una frecuencia máxima de 2.9 GHz, además de una generosa cantidad de 128 MB de caché L2.





Sin embargo, es importante recordar que, aunque estas son filtraciones emocionantes, aún no han sido confirmadas oficialmente. No obstante, los informantes que las han revelado cuentan con una gran credibilidad en la comunidad tecnológica. Solo nos queda esperar con paciencia aproximadamente un año y medio para ver por nosotros mismos el monstruoso producto que NVIDIA está gestando en sus laboratorios.



Vía | NVIDIA RTX 5090 será un 70% más rápida que la RTX 4090, Boost Clock de 2,9 GHz y 1,5 TB/s de ancho de banda | Tarreo


https://bit.ly/48pWnL9

Procesadores Intel Core Ultra: Innovación en Diseño y Alto Rendimiento

Procesadores Intel Core Ultra: Innovación en Diseño y Alto Rendimiento

Intel anunció los primeros detalles de su próxima generación de procesadores Core Ultra (Meteor Lake), la cual debutará antes de que termine el 2023. Los chips se caracterizan por utilizar el proceso de fabricación Intel 4 —que promete mayor rendimiento sin sacrificar el consumo de energía —, así como también en integrar una unidad de procesamiento neuronal (NPU) para tareas de inteligencia artificial.





Durante el arranque del Intel Innovation Day, el fabricante anunció que los procesadores Core Ultra se presentarán el próximo 14 de diciembre. Los nuevos chips se alejan del arreglo convencional y adoptan un diseño con chiplets para cada componente, similar a lo que vemos en los SoC de fabricantes como Qualcomm o AMD. De acuerdo con Intel, esta metodología es uno de los mayores cambios arquitectónicos en 40 años y será la punta de lanza para los procesadores del futuro.





Bajo este diseño, la arquitectura de Meteor Lake está dividida en cuatro mosaicos, cada uno enfocado en un área específica (CPU, GPU, I/O SoC). El CPU está conformado por núcleos P (rendimiento) y E (eficiencia) en una combinación parecida a la de los procesadores actuales. La novedad en esta generación son los núcleos electrónicos (e) que se encargan de realizar tareas de menor consumo de energía y pueden funcionar por sí solos.





Por su parte, el mosaico del GPU cuenta con características que permitirían ejecutar juegos a un conteo de cuadros decente. En términos de rendimiento, la nueva arquitectura Xe-LPG duplica en eficiencia al Iris Xe de generación anterior. Aunque no obtendremos las ventajas que ofrece una tarjeta dedicada, la GPU de los Intel Core Ultra llegará soporte para XeSS, la solución de escalado inteligente que ofrece una ganancia considerable en los fotogramas por segundo.





Inteligencia artificial y bajo consumo: las claves de los nuevos Core Ultra





Una de las características más importantes de los Core Ultra es la presencia de una unidad de procesamiento neuronal (NPU), la primera en un chip de Intel. El coprocesador está diseñado para ejecutar cargas de trabajo de inteligencia artificial que necesitan mayor calidad o eficiencia, y que normalmente se ejecutarían en la nube. La NPU puede conectarse con aplicaciones de IA para ejecutar tareas de forma local, acelerando el proceso.





Aunque Intel no ofreció ejemplos específicos, mencionó que la nueva arquitectura desagregada de Core Ultra ofrece equilibrio en rendimiento y potencia en procesos de inteligencia artificial.





- La GPU tiene paralelismo de rendimiento, ideal para IA infundida en medios, aplicaciones 3D y procesos de renderizado.

- La NPU es un motor de IA de bajo consumo dedicado para IA sostenida y descarga de IA.

- La CPU tiene una respuesta rápida ideal para tareas de IA ligeras, de inferencia única y baja latencia.

La llegada de Core Ultra podría representar un punto de inflexión para Intel. El fabricante no solo ha incluido un coprocesador de IA en sus procesadores por primera vez, sino que se apoyará en uno de sus competidores. Tres de los cuatro mosaicos que conforman el chip utilizarán silicio de TSMC, uno de ellos fabricado bajo un proceso de bajo consumo que sirve como puente de comunicación central.



Lamentablemente, Intel no reveló información sobre especificaciones, pruebas de rendimiento o configuraciones de sus próximos chips. Hasta ahora, el único modelo que se ha filtrado es un Core Ultra 5 1003H, que llegará con hasta 18 hilos y una GPU de 128 unidades de cómputo.



Los nuevos procesadores Core Ultra se presentarán oficialmente el 14 de diciembre y marcarán el final de la nomenclatura "Core i" que usó el fabricante por más de 15 años.



Vía | Intel Core Ultra: reveladas algunas características y disponibilidad (hipertextual.com)


https://bit.ly/48nisKo

OpenAI podría lanzar buscador de IA contra Google

En el candente espacio de la inteligencia artificial, OpenAI, que ya está muy presente, podría estar trabajando en un buscador impulsado por...