31 enero 2025

Bitcoin en jaque: ¿Podrá recuperarse tras la incertidumbre de la Fed?

Bitcoin en jaque: ¿Podrá recuperarse tras la incertidumbre de la Fed?

El precio de Bitcoin ha caído más de un 1.6% hoy, con la criptomoneda más grande del mercado luchando por recuperar impulso mientras los inversionistas temen noticias poco alentadoras de la Reserva Federal.


La opinión entre los analistas está dividida sobre si el Comité Federal de Mercado Abierto (FOMC) mantendrá las tasas en su nivel actual o si las reducirá, como ha solicitado el nuevo presidente Donald Trump.


Aunque muchas firmas financieras y analistas esperan que las tasas se mantengan sin cambios, algunos sugieren que la reunión de hoy podría traer “una leve sorpresa moderada” para Bitcoin, según el análisis más reciente de 10X Research.



Esto podría ayudar a mitigar el impacto que la aparición de DeepSeek ha tenido esta semana en activos de riesgo como Bitcoin, aunque Geoffrey Kendrick, de Standard Chartered, espera que la criptomoneda se recupere de este golpe de todas formas.


"DeepSeek no tiene nada que ver con Bitcoin y, de hecho, dado que DeepSeek implica que el costo de la inteligencia artificial es menor, esto en realidad reduce la inflación y es positivo para los activos de riesgo (como Bitcoin), que no tienen presencia en IA", dijo a Decrypt.


Kendrick prevé que Bitcoin siga recuperándose en los próximos días, aunque la fuerza y el momento de este repunte dependerán de Jerome Powell y el resto del FOMC.


"Los activos de riesgo ahora esperarán la decisión de la Fed esta noche", añade. "Si es neutral, creo que BTC volverá a cotizar por encima de los $105,000, donde estaba antes de DeepSeek".


Independientemente de la decisión de la Fed, hay un consenso general de que los próximos meses serán favorables para el precio de Bitcoin, impulsado por un creciente interés institucional.


"Aunque eventos de ‘aversión al riesgo’ como DeepSix pueden afectar el precio en el corto plazo, la perspectiva a largo plazo para Bitcoin sigue siendo tan alcista como siempre, ya que individuos, empresas, instituciones financieras tradicionales (TradFi) y gobiernos de todo el mundo están preparados para acumular", dijo Lou Kerner, fundador de CryptoMondays, en una entrevista con Decrypt.


Esta visión es compartida por Kendrick, quien destaca que la reciente eliminación de la norma contable SAB 121 hace que las instituciones estadounidenses sean ahora más propensas a ingresar al mercado de activos digitales.


"El flujo neto total hacia los ETF de Bitcoin ahora asciende a $38,000 millones (en poco más de 12 meses)", señala.


También explica que, hasta finales de septiembre, solo el 1% del valor total de los ETF de Bitcoin era propiedad de fondos de pensiones, lo que indica un gran potencial de crecimiento.


"Espero que este sector de inversión a largo plazo (que maneja $40 billones en activos) entre de lleno en BTC en 2025, lo que significa que los flujos de este año serán mayores que los del año pasado", predice.


Y aunque existe la amenaza de que, en algún momento, la administración de Trump imponga aranceles generalizados a sus socios comerciales, algunos analistas creen que las crisis económicas o geopolíticas podrían, en realidad, fortalecer a Bitcoin a largo plazo.


Como concluye Lou Kerner: "El precio de BTC seguirá beneficiándose de un mundo en crisis que impulsa la demanda de una mejor reserva de valor en todas partes, mientras la oferta sigue disminuyendo".


Vía | China’s DeepSeek AI Is Good for Bitcoin, Says Standard Chartered - Decrypt

https://tecnologiaconjuancho.com/bitcoin-en-jaque-podra-recuperarse-tras-la-incertidumbre-de-la-fed/

iOS 18.3 llega con mejoras en Apple Intelligence, seguridad y más

iOS 18.3 llega con mejoras en Apple Intelligence, seguridad y más

iOS 18.3 es la tercera actualización importante del sistema operativo iOS 18. Aunque no tiene tantas funciones nuevas como iOS 18.1 o iOS 18.2, incluye algunos cambios en Apple Intelligence que vale la pena conocer, además de otros ajustes, correcciones de errores y actualizaciones de seguridad.



Esta guía cubre todo lo nuevo en iOS 18.3.


Apple Intelligence


Después de actualizar a iOS 18.3, Apple Intelligence ya no es una función que debes activar manualmente, sino que se activa automáticamente. Si antes no lo tenías activado, ahora estará encendido por defecto, y tendrás que ir a la sección de Apple Intelligence en la app de Ajustes para desactivarlo si no lo quieres.



Apple Intelligence también se activará automáticamente en dispositivos con iPadOS 18.3 y macOS Sequoia 15.3.


Esta función está disponible en los modelos iPhone 15 Pro, iPhone 16 Pro, iPad mini 7, y en todos los Macs y iPads con chips de la serie M. En estos dispositivos, Apple Intelligence se activa automáticamente al instalar iOS 18.3, iPadOS 18.3 o macOS Sequoia 15.3. En versiones anteriores, tenías que activarlo manualmente para poder usarlo.


Inteligencia Visual


Para los modelos de iPhone 16, hay nuevas funciones de Inteligencia Visual que se pueden usar con el Control de Cámara.



Ahora puedes usar Inteligencia Visual para agregar eventos a la app de Calendario o para identificar plantas y animales.


Resúmenes de Notificaciones de Apple Intelligence


iOS 18.3 hace varios cambios en los resúmenes de notificaciones de Apple Intelligence para solucionar quejas sobre notificaciones con titulares de noticias falsos.


Los resúmenes de notificaciones para las categorías de Noticias y Entretenimiento se han desactivado temporalmente, y Apple está trabajando en mejoras. La función volverá en una futura actualización, pero por ahora, este tipo de notificaciones no se agruparán ni resumirán.



En la app de Ajustes, cuando un usuario activa los resúmenes de notificaciones, Apple ha añadido una advertencia que indica que esta es una función en fase beta y que pueden ocurrir errores.



Para los resúmenes que aún están disponibles a través de Apple Intelligence, el texto aparece en cursiva para distinguirlo de las notificaciones normales.



Además, Apple añadió una opción para gestionar si las notificaciones de una app se resumen directamente desde la pantalla de bloqueo. Para desactivar los resúmenes desde la pantalla de bloqueo, desliza hacia la izquierda en un resumen de notificación y luego toca en opciones para acceder al menú y desactivarlo por app.


Calculadora


Apple hizo un cambio en la app de Calculadora, devolviendo una función que se había eliminado en iOS 18. Ahora puedes tocar dos veces el signo de igual (=) para repetir la última operación matemática.



Apple había eliminado la repetición de operaciones en iOS 18, pero la ha recuperado. Los usuarios que usaban la app de Calculadora para cosas como calcular intereses compuestos ahora podrán hacerlo de nuevo.


Fondo de Pantalla Black Unity


La actualización añade un nuevo fondo de pantalla que coincide con una nueva esfera de reloj y una nueva correa para el Apple Watch que se anunciaron hoy.



Correcciones de Errores


Se solucionaron algunos errores importantes:


- Teclado de Siri: Se corrigió un error que hacía que el teclado desapareciera después de usar la función "Escribir a Siri".
- Apple Music: iOS 18.3 soluciona un error que podía hacer que la reproducción de audio continuara incluso después de cerrar la app de Apple Music.

Actualizaciones de Seguridad


iOS 18.3 corrige 25 vulnerabilidades de seguridad, incluyendo una que estaba siendo explotada activamente. Una vulnerabilidad en CoreMedia podía usarse para elevar privilegios, y Apple tiene reportes de que podría haberse usado en dispositivos con iOS 17.1 o versiones anteriores.


Una vulnerabilidad en Fotos permitía que un atacante con acceso físico a un dispositivo desbloqueado accediera a la app de Fotos incluso cuando el iPhone estaba bloqueado. Además, Apple corrigió varios problemas con AirPlay que podían permitir a los atacantes ejecutar código o hacer que las apps se cerraran.


También se solucionaron dos vulnerabilidades del kernel que podían permitir que apps maliciosas obtuvieran privilegios del sistema, y se hicieron varias correcciones en WebKit para Safari. Dado el número de fallos de seguridad corregidos, es recomendable instalar esta actualización para tener la última protección.


Vía | iOS 18.3 Features: Everything New in iOS 18.3 - MacRumors

https://tecnologiaconjuancho.com/ios-18-3-llega-con-mejoras-en-apple-intelligence-seguridad-y-mas/

Bitcoin en alza: Claves para entender su crecimiento tras el anuncio de la Fed

Bitcoin en alza: Claves para entender su crecimiento tras el anuncio de la Fed

El Bitcoin (BTC) superó la marca de $105,000 el miércoles, luego de que el sentimiento de los inversionistas cambiara tras la decisión de la Reserva Federal (Fed) de pausar los recortes a las tasas de interés.


La criptomoneda más grande del mundo, que inicialmente cayó a $101,800 después del anuncio, rápidamente se recuperó, alcanzando su nivel más alto en tres días.


Durante la reunión del Comité Federal de Mercado Abierto, la Fed mantuvo sin cambios su tasa de interés de referencia, dejándola en un rango objetivo de 4.25% a 4.50%.


Desde la victoria electoral del presidente Donald Trump en noviembre, el Bitcoin ha subido más del 50%, impulsado en parte por las expectativas de políticas más favorables hacia las criptomonedas bajo su administración.



Mientras la Reserva Federal sigue monitoreando los datos económicos, los inversionistas se mantienen cautelosos pero optimistas sobre la trayectoria del Bitcoin.


“Un crecimiento inmediato, como hemos visto en ciclos alcistas anteriores, podría no darse tan fácilmente, ya que gran parte del optimismo por la postura de Trump hacia las criptomonedas ya se ha reflejado en los recientes movimientos alcistas”, dijo Gracy Chen, CEO de Bitget, a Decrypt.


La pausa en las tasas de interés llega después de tres recortes consecutivos desde septiembre, que redujeron la tasa de fondos federales en 100 puntos base.


El presidente de la Fed, Jerome Powell, dijo durante una conferencia de prensa después de la reunión que la fortaleza económica continua y la inflación persistente influyeron en la decisión de mantener las tasas estables.


Powell señaló que, aunque la inflación ha bajado significativamente desde su máximo de 9.1% en 2022, todavía se mantiene en un 2.9% anual, lo que hace inciertos futuros ajustes en las tasas.


Los comentarios de Powell inicialmente impulsaron al Bitcoin y a las acciones, con el BTC superando los $103,000 antes de subir aún más.


Los mercados tradicionales tuvieron una respuesta mixta, con el Nasdaq cayendo un 1.1% y el S&P 500 bajando un 0.9%. El oro se mantuvo estable por encima de $2,750 en las primeras horas de negociación en Asia el jueves.


Powell, al ser preguntado sobre los activos digitales, afirmó que los bancos estadounidenses son libres de atender a clientes de criptomonedas siempre que gestionen los riesgos asociados.


El presidente de la Fed también sugirió que se necesitan regulaciones más claras por parte del Congreso, algo que muchos en la industria vieron como un avance positivo.


El mercado de criptomonedas en general respondió de manera positiva a la decisión de la Fed, con Ethereum (ETH) y Solana (SOL) operando en rangos estrechos. ETH subió un 2% a $3,184, mientras que SOL ganó un 4.1% hasta $239, según datos de CoinGecko.


A pesar de las recientes ganancias, algunos analistas advierten que el repunte del Bitcoin podría enfrentar resistencia.


La criptomoneda más grande del mundo alcanzó brevemente un récord de $109,241 antes de la inauguración del presidente Trump en enero, pero desde entonces ha retrocedido.


“Aunque algunos creen que el mercado de criptomonedas recibirá una atención significativa por parte de la nueva administración, es importante moderar las expectativas sobre los precios”, dijo Chen.


Vía | Bitcoin Jumps to $105,000 as Fed Fears Fade - Decrypt

https://tecnologiaconjuancho.com/bitcoin-en-alza-claves-para-entender-su-crecimiento-tras-el-anuncio-de-la-fed/

30 enero 2025

Instala DeepSeek en tu PC fácilmente: IA local sin conexión a Internet

Instala DeepSeek en tu PC fácilmente: IA local sin conexión a Internet

Vamos a explicarte cómo instalar DeepSeek en tu ordenador, para poder utilizarlo cuando quieras. Hay varias maneras de hacerlo, pero nosotros vamos a intentar recurrir a una de las más sencillas que sean posibles, y que funcione tanto con Windows como con macOS y GNU Linux.


Para eso, vamos a recurrir a un programa que se llama Ollama, y que sirve para poder instalar distintos modelos de inteligencia artificial y lanzarlos en tu ordenador. Entre ellos está DeepSeek. Se instala como una aplicación normal, aunque su utilización es un poco diferente. Además, también usaremos un segundo programa llamado LM Studio, en el que podrás usar DeepSeek con entorno gráfico.


Su gran particularidad es que funciona desde la consola interna de tu sistema operativo, tanto la de Windows como la de macOS o GNU/Linux. Esto puede ser un poco confuso, aunque simplifica su utilización al máximo. De hecho, solo tienes que instalar la app y escribir un comando para empezar a hacerla funcionar.


La parte positiva de esto es que vas a poder usar la IA incluso sin conexión a Internet, ya que estará funcionando internamente en tu ordenador. Y la parte negativa es que no puedes buscar en Internet con DeepSeek, al menos con este modelo R1 que vamos a instalar.


Usaremos una versión "reducida" de DeepSeek


Antes de empezar, quiero aclararte algunos límites de este proceso y otros parecidos con programas similares. Para este ejemplo, vamos a descargar una versión reducida de DeepSeek, la 8b, que ocupa 4,7 GB. Esto es una versión con muchísimos menos gigaparámetros que la completa, pero es la que puedes usar en cualquier ordenador.


Estas versiones reducidas o "destiladas", usan otros modelos para reducir el tamaño del que quieres utilizar. Con esto se consigue que ocupen menos espacio y sean más asequibles al poder usarse en ordenadores más normales. Ten en cuenta que las versiones superiores necesitan una gran cantidad de potencia para poder funcionar.


También puedes instalar la versión completa de DeepSeek, la 671b. Sin embargo, esta versión ocupa 404 GB, y casi ningún ordenador podría hacerlo funcionar correctamente debido a la potencia que es necesaria para eso. Por eso hemos recurrido a una versión inferior.


Por lo tanto, debes saber que las versiones reducidas sirven para poder usar los modelos en ordenadores menos capaces. Puedes ir probando con instalar versiones superiores para hasta cuál puedes hacer funcionar mejor en tu ordenador.


DeepSeek en tu PC con Ollama



Lo primero que tienes que hacer es entrar en la web de Ollana, que es un programa que sirve para instalar y hacer funcionar de forma local varios modelos de inteligencia artificial. Para esto, entra en ollama.com, y pulsa en el botón Download que te aparecerá.



Ahora, irás a la página donde tienes que elegir el sistema operativo para el que quieres bajarte el programa. Una vez lo hayas elegido, pulsa en el botón Download. Por defecto la web mostrará el sistema que estás usando, pero podrás descargar el ejecutable de cualquier otro.



Cuando lo descargues, lanza el programa de instalación. Instalar Ollama es muy sencillo, solo tienes que pulsar en el botón de siguiente en la pantalla de presentación, y luego pulsar en el botón Install en la pantalla de instalación.



Ahora viene la única parte un poco compleja. Una vez instalado, tienes que lanzar la aplicación de Ollama. Aparentemente no pasará nada, no se abrirá nada. En este punto, con Ollama funcionando tienes que abrir la terminal de tu sistema operativo, el símbolo de sistema en Windows. Allí, tienes que escribir el código para instalar o ejecutar DeepSeek. Es el siguiente:


- ollama pull deepseek-r1:8b: Esto solo descarga DeepSeek R1 en su versión 8B. Recuerda que es una versión muy inferior, muy destilada. Cuando mayor sea la cifra del b de la versión más capaz y cercana a la oficial y completa será, pero mejor ordenador requerirá para hacerla funcionar.
- ollama run deepseek-r1:8b: Esto instala y lanza DeepSeek R1 en la versión 8b o en la que elijas.

El proceso de instalación es de varios gigas, unos 5, y lo mucho o poco que tarde dependerá de tu conexión a Internet. Una vez instalado, en el caso de haber usado el comando run ya podrás empezar a usarlo.



Tras haber hecho la instalación, solo tienes que usar el comando ollama run deepseek-r1:8b en el terminal de tu ordenador teniendo el programa Ollama abierto. La versión 8b puedes cambiarla por otra de las aquí disponibles: ollama.com/library/deepseek-r1/tags.


Cuando lances el programa, en la línea de comandos de tu ordenador podrás escribir el prompt que quieras lanzarle a DeepSeek, y tras unos segundos empezará a generarte la respuesta. Puedes usar DeepSeek en español si escribes en ese idioma, aunque su tendencia será usar el inglés. Si te responde en inglés, siempre puedes mencionar en el prompt que te responda en español.



El modelo DeepSeek R1 está especializado en el razonamiento. Por eso, cuando le escribas un prompt, antes de recibir la respuesta podrás ver su razonamiento entre las etiquetas . Esto es curioso para que puedas ver la manera en la que la IA está procesando lo que le has preguntado. Luego, te generará la respuesta.



Cuando quieras dejar de usar Ollama con DeepSeek, entonces tendrás que escribir el comando /bye, y te devolverá al terminal por defecto. Si escribes /? te mostrará otros comandos que puedes utilizar.


DeepSeek en tu PC con LM Studio



También tienes otras alternativas que puedes usar, como el programa LM Studio, disponible en la web lmstudio.ai. También sirve para usar modelos de IA en tu ordenador, pero te proporciona una interfaz gráfica para no necesitar recurrir solo a la línea de comandos. Entra en la web y baja la versión de tu sistema operativo.



Entrando en la configuración de LM Studio tienes un buscador de modelos, donde puedes buscar DeepSeek para encontrar las versiones destiladas o reducidas. Aquí, recuerda lo que te hemos dicho, cuando mayor sea la cifra del B después del nombre más potente será DeepSeek, pero también ocupará más y necesitará un mejor ordenador. Cuando encuentres un modelo, puedes pulsar en Download para bajarlo.



Ahora, tienes una carpeta donde puedes ver los modelos que tienes descargados. Pulsando en la opción de ir a la carpeta de descargas podrás cargar el modelo descargado en LM Studio con el botón Load Model para así poder empezar a usarlo.



Y ya está. Una vez hayas elegido un modelo, te aparecerá en la parte de arriba del todo en morado para que sepas que lo has seleccionado. Ahora, puedes empezar un nuevo chat y hacerle la pregunta que quieras a DeepSeek, pudiendo ver el tiempo que tarda en pensar y la respuesta.


Vía | Instalar DeepSeek en tu ordenador: cómo usarlo de forma local en Windows, macOS o GNU/Linux con Ollama y LM Studio

https://tecnologiaconjuancho.com/instala-deepseek-en-tu-pc-facilmente-ia-local-sin-conexion-a-internet/

DeepSeek V3: La ingeniería detrás de una IA eficiente y revolucionaria

DeepSeek V3: La ingeniería detrás de una IA eficiente y revolucionaria

La publicación del modelo V3 de la inteligencia artificial (IA) DeepSeek como código abierto es una bendición. Y lo es debido a que poco a poco vamos conociendo con detalle la estrategia que han pergeñado los ingenieros de esta compañía china para poner a punto un modelo de IA tan eficiente. Antes de seguir adelante con este artículo es importante que tengamos presente que DeepSeek asegura que ha entrenado su modelo utilizando tan solo 2.048 chips H800 de NVIDIA.


Algunos analistas defienden que, en realidad, su infraestructura aglutina 50.000 GPU H100 compradas a través de intermediarios, pero por el momento es solo una conjetura. Este chip es más potente que el H800, pero es perfectamente creíble que DeepSeek se haya visto obligada a conformarse con este último debido a que las sanciones del Gobierno de EEUU han impedido el acceso de las empresas chinas a la GPU H100. De hecho, desde noviembre de 2023 NVIDIA tampoco puede entregar a sus clientes chinos su chip H800.


Una de las claves del éxito de DeepSeek se llama PTX


En la receta del trepidante crecimiento que ha experimentado NVIDIA durante los últimos cinco años no intervienen solo sus GPU; la tecnología CUDA (Compute Unified Device Architecture) también tiene un rol esencial en su negocio. La mayor parte de los proyectos de IA que se están desarrollando actualmente están implementados sobre CUDA. Esta tecnología aglutina el compilador y las herramientas de desarrollo utilizados por los programadores para desarrollar su software para las GPU de NVIDIA, y reemplazarla por otra opción en los proyectos que ya están en marcha es un problema.



Huawei, que aspira a hacerse con una porción importante de este mercado en China, tiene CANN (Compute Architecture for Neural Networks), que es su alternativa a CUDA, pero por el momento CUDA domina el mercado. Además, esta herramienta de NVIDIA pone en las manos de los programadores un lenguaje de alto nivel que les permite acceder al hardware de la GPU de una manera asequible. Aun así, y llegamos al corazón de este artículo, los ingenieros de DeepSeek no han empleado CUDA para desarrollar su IA: han utilizado PTX (Parallel Thread Execution).


Los ingenieros de DeepSeek han decidido utilizar PTX para sacar el máximo partido posible a las GPU H800 que tenían en su poder


Este lenguaje es similar al ensamblador. De hecho, de alguna manera es el ensamblador que propone NVIDIA a los desarrolladores que utilizan sus GPU y necesitan implementar optimizaciones de bajo nivel en su código. Programar con PTX es más difícil y laborioso que hacerlo con CUDA, pero conlleva la ventaja de que permite a los desarrolladores escribir un código más eficiente, y, por tanto, capaz de aprovechar mejor los recursos que les ofrece el hardware de la GPU.


Presumiblemente los ingenieros de DeepSeek han decidido utilizar PTX para sacar el máximo partido posible a las GPU H800 que tenían en su poder. Una de las estratagemas que han ideado ha consistido en asignar solo 20 SM (Streaming Multiprocessors) de cada GPU a la comunicación entre los servidores, lo que les ha permitido dedicar los 112 SM restantes de cada chip a procesos de cálculo. En esencia, DeepSeek ha sido construido desde cero recurriendo a este tipo de optimizaciones, lo que en gran medida explica por qué este modelo de IA es tan eficiente.


Los programadores de esta compañía china objetivamente han materializado un logro en el ámbito de la ingeniería que con toda probabilidad va a tener un impacto profundo en la forma en que los desarrolladores de modelos de IA van a afrontar sus proyectos en el futuro. Esta es la prueba palpable de que China se está adaptando con éxito a la escasez de GPU que han desencadenado las sanciones de EEUU en sus empresas.


Vía | Ya conocemos el secreto de la extrema eficiencia de DeepSeek: ha esquivado el estándar CUDA de NVIDIA

https://tecnologiaconjuancho.com/deepseek-v3-la-ingenieria-detras-de-una-ia-eficiente-y-revolucionaria/

DeepSeek vs OpenAI: ¿Innovación o polémica en la IA?

DeepSeek vs OpenAI: ¿Innovación o polémica en la IA?

Los modelos de IA de DeepSeek son realmente buenos. Lo demuestran las pruebas comparativas que publicamos ayer y que lo ponen al nivel de ChatGPT, Claude o Gemini. Eso ha desatado alabanzas, pero también suspicacias. Hay gente que no se cree que entrenar DeepSeek haya costado apenas 5,6 millones de dólares, pero es que además ahora en OpenAI acusan a DeepSeek de otra cosa.


DeepSeek, estás usando nuestros datos sin permiso. Portavoces de la OpenAI han indicado a Financial Times que han descubierto pruebas de que se han usado técnicas de "destilado" de los modelos de OpenAI usadas por DeepSeek.


¿Qué es eso del "destilado" en la IA? Ayer hablamos de cómo los desarrolladores de DeepSeek han utilizado un gran número de técnicas para lograr un modelo así de eficiente. Entre ellas destaca el aprendizaje por refuerzo, pero también se sabe que usan el destilado de modelos. En esta técnica se enseña a un "modelo alumno" más pequeño a comportarse como un "modelo profesor" más grande y avanzado. Se usan datos del "modelo profesor" para que el modelo pequeño sea más rápido y eficiente, pero igual de inteligente en tareas específicas.



Uso no permitido. El destilado o destilación de modelos es una práctica común en la industria, pero los términos de servicio de OpenAI prohíben que sus modelos sean usados con este fin. Así, se especifica que los usuarios no pueden "copiar" ninguno de sus servicios ni tampoco "usar la salida para desarrollar modelos que compitan con los de OpenAI".


OpenAI y Microsoft ya investigaron sobre esto. Según Bloomberg, ambas empresas analizaron el pasado otoño cuentas que se estaban usando para aprovechar sus chatbots y que al parecer pertenecían a los desarrolladores de DeepSeek. Usaban la API de OpenAI, pero hubo sospechas de que habían violado los términos de servicio al aprovechar ese acceso para hacer destilado de sus modelos.



Muchos lo hacen. David Sacks, responsable de IA en el equipo de Donald Trump, le alertó de lo que estaba pasando y aseguró que había pruebas de que DeepSeek había usado datos de OpenAI. Portavoces de la empresa dirigida por Sam Altman indicaron que "sabemos que empresas de la República Popular China –y otras– están constantemente tratando de destilar los modelos de empresas líderes en IA en EEUU".


Se cree el ladrón que todos son de su condición. Lo irónico aquí es que OpenAI no ha tenido escrúpulos a la hora de recolectar datos de internet para entrenar sus modelos, violando también los términos de servicio de esas plataformas. El año pasado se descubrió por ejemplo cómo transcribió un millón de horas de YouTube para entrenar a GPT-4. Timnit Gebru, célebre por su polémico despido de Google, comentaba en LinkedIn que OpenAI "debe ser la compañía más insufrible del mundo". Y continuaba: "pueden robar al mundo entero y engullir todos los recursos posibles. Pero nadie puede darles a probar su propia medicina ni siquiera un poco".


Si está en internet, se puede usar, ¿no? Otras empresas hacen exactamente lo mismo, y se escudan en el argumetno del "uso justo". Recolectan cualquier contenido público en internet sin pedir permiso a los usuarios o a las plataformas. No solo eso: se sospecha que en muchos casos se entrenan esos modelos con obras protegidas por los derechos de autor, algo que ha dado lugar a numerosas demandas.


Vía | OpenAI ha cogido todo lo que ha querido de internet para entrenar su IA. Ahora acusa a DeepSeek de robar sus datos

https://tecnologiaconjuancho.com/deepseek-vs-openai-innovacion-o-polemica-en-la-ia/

29 enero 2025

Nuevo cambio en Google Maps: El Golfo de México ahora es "Golfo de América"

Nuevo cambio en Google Maps: El Golfo de México ahora es

Google anunció el martes que cambiará el nombre del Golfo de México a "Golfo de América" para los usuarios en EE.UU. una vez que la actualización sea oficial en el Sistema de Nombres Geográficos de EE.UU.


La empresa tecnológica, propietaria y operadora de Google Maps, publicó en X que tenía "una práctica establecida de aplicar cambios de nombre cuando estos han sido actualizados en fuentes oficiales del gobierno".


El cambio solo será visible para los usuarios en EE.UU., mientras que en México seguirá apareciendo como Golfo de México. Fuera de EE.UU. y México, los usuarios de Google Maps podrán ver ambos nombres.


For geographic features in the U.S., this is when Geographic Names Information System (GNIS) is updated. https://t.co/3NYvU7Bxjq

— News from Google (@NewsFromGoogle) January 27, 2025
El Departamento del Interior de EE.UU. implementa el cambio de nombre del Golfo de México

La semana pasada, el Departamento del Interior de EE.UU. anunció que había cambiado oficialmente el nombre del Golfo de México a Golfo de América.


El departamento indicó que la Junta de Nombres Geográficos de EE.UU. estaba trabajando "rápidamente" para actualizar estos nombres en el Sistema de Información de Nombres Geográficos.


Funcionarios federales también anunciaron que el nombre del pico más alto de América del Norte, Denali, en Alaska, había sido cambiado nuevamente a Monte McKinley.


El nombre de la montaña más alta de América del Norte ha sido motivo de debate durante años. En 2015, la administración de Obama decidió llamarla oficialmente Denali, el nombre utilizado históricamente por los nativos locales.


Google también anunció que cambiaría el nombre de Denali a Monte McKinley en Google Maps.


Trump dijo que renombraría el Golfo de México en su discurso inaugural

El presidente de EE.UU., Donald Trump, ordenó estos cambios de nombre como parte de una serie de órdenes ejecutivas que firmó pocas horas después de asumir el cargo el 20 de enero.


A principios de mes, la presidenta de México, Claudia Sheinbaum, había sugerido en tono de broma que América del Norte, incluyendo EE.UU., fuera renombrada como "América Mexicana", un nombre histórico que apareció en un antiguo mapa de la región.


Tras la firma de la orden ejecutiva para implementar el cambio de nombre, Sheinbaum declaró: "Él dice que lo llamará 'Golfo de América' en su plataforma continental. Para nosotros sigue siendo el Golfo de México, y para el mundo entero sigue siendo el Golfo de México".


Vía | Google Maps to change Gulf of Mexico to 'Gulf of America' – DW – 01/28/2025

https://tecnologiaconjuancho.com/nuevo-cambio-en-google-maps-el-golfo-de-mexico-ahora-es-golfo-de-america/

Nuevo golpe a Binance: Francia amplía investigación por lavado de dinero

Nuevo golpe a Binance: Francia amplía investigación por lavado de dinero

Las autoridades francesas están investigando a Binance por lavado de dinero, fraude fiscal, tráfico de drogas y otros cargos.


En una declaración a Decrypt el martes, Binance afirmó que las acusaciones eran "de hace varios años" y expresó su "profunda decepción" al saber que el caso avanzaba.


El Servicio de Investigación Judicial Financiera de Francia comenzó a investigar a Binance en 2023.


Binance confirmó a Decrypt que la Jurisdicción Nacional para la Lucha contra el Crimen Organizado (JUNALCO) decidió remitir el caso al sistema judicial francés para una investigación más profunda.



Reuters fue el primer medio en reportar la noticia. Los fiscales de París informaron en un comunicado que investigarán si Binance cumplió con las regulaciones contra el lavado de dinero en Francia y otros países de Europa entre 2019 y 2024.


Agregaron que también investigarán si la plataforma violó la ley al usar videos promocionales con influencers antes de estar registrada en Francia como proveedor de servicios de activos digitales.


Binance declaró: "Si bien, por política, no solemos comentar sobre procedimientos legales, Binance rechaza completamente las acusaciones y defenderá enérgicamente cualquier cargo en su contra".


En 2023, las autoridades francesas iniciaron una investigación contra Binance por "lavado de dinero agravado".


Binance es el exchange de criptomonedas más grande del mundo y ha sido investigado previamente por autoridades de otros países.


El fundador y ex CEO de Binance, Changpeng "CZ" Zhao, fue sentenciado a cuatro meses de prisión el año pasado tras declararse culpable de violaciones a las leyes contra el lavado de dinero en 2023.


Vía | Binance Is Being Investigated for Money Laundering by French Authorities - Decrypt

https://tecnologiaconjuancho.com/nuevo-golpe-a-binance-francia-amplia-investigacion-por-lavado-de-dinero/

DeepSeek R1: La IA china que desafía a OpenAI con código abierto

DeepSeek R1: La IA china que desafía a OpenAI con código abierto

Un nuevo jugador ha llegado al mundo de la inteligencia artificial y está generando una gran disrupción.


La startup china de IA DeepSeek causó revuelo la semana pasada al lanzar la versión completa de R1, su modelo de razonamiento de código abierto que supera al o1 de OpenAI. El lunes, las descargas en la App Store del asistente de IA de DeepSeek —que funciona con V3, un modelo lanzado en diciembre— superaron a ChatGPT, que hasta entonces había sido la aplicación gratuita más descargada.


DeepSeek R1 también ha escalado rápidamente al tercer puesto en la Chatbot Arena de HuggingFace, solo por debajo de algunos modelos de Gemini y de ChatGPT-4o. Sin embargo, casi tan pronto como superó a OpenAI, DeepSeek restringió los registros, argumentando un supuesto ciberataque, y luego siguió causando impacto con el lanzamiento de un nuevo modelo de generación de imágenes.


¿Qué es DeepSeek?

Fundada por Liang Wenfeng en mayo de 2023, esta startup china aún no cumple ni dos años, pero ya desafía a las grandes empresas de IA con su enfoque de código abierto. Según Forbes, su ventaja podría radicar en su modelo de financiamiento: DeepSeek solo recibe fondos de High-Flyer, un fondo de cobertura dirigido también por Wenfeng, lo que le permite un crecimiento rápido y más libertad para la investigación.



¿Qué es DeepSeek R1?

Lanzado en su versión completa la semana pasada, R1 es el modelo insignia de razonamiento de DeepSeek, capaz de igualar o superar el rendimiento del o1 de OpenAI en pruebas de matemáticas, programación y razonamiento. Lo que hace que R1 sea particularmente interesante es que, a diferencia de otros modelos de las grandes tecnológicas, es de código abierto, lo que significa que cualquiera puede descargarlo y usarlo.


Sin embargo, DeepSeek no ha revelado el conjunto de datos con el que entrenó R1. Hasta ahora, todos los modelos que ha lanzado también han sido de código abierto.


Otra ventaja de DeepSeek es que es más barato que los modelos estadounidenses equivalentes. Por ejemplo, el acceso a la API de R1 cuesta $0.14 por un millón de tokens, una fracción de los $7.50 que cobra OpenAI por el mismo nivel de servicio.


DeepSeek afirmó en un documento de investigación que el entrenamiento de su modelo V3 costó $5.6 millones, una cifra que ha sido interpretada (y debatida) como el costo total de desarrollo del modelo. Según AP, algunos expertos creen que esa cifra solo corresponde a la última fase de entrenamiento, sin incluir costos previos como infraestructura, investigación, adquisición de datos y personal, lo que significaría que el costo real es mucho mayor, aunque sigue siendo inferior al de las grandes tecnológicas.


¿Podría la censura afectar su crecimiento?

Un posible obstáculo para competir a largo plazo con o1 y otros modelos estadounidenses es la censura. Los modelos chinos suelen tener restricciones sobre ciertos temas, lo que significa que, aunque pueden ser tan funcionales como otros, podrían negarse a responder ciertas preguntas (por ejemplo, sobre la Plaza de Tiananmen o Taiwán).


En diciembre, Tiernan Ray de ZDNET comparó la capacidad de R1-Lite para explicar su razonamiento con la de o1, y los resultados fueron mixtos.


Por supuesto, todos los modelos populares incluyen controles de contenido y políticas de moderación, pero hasta ahora, los chatbots desarrollados en Estados Unidos rara vez evitan responder preguntas sobre eventos históricos sensibles.


Preocupaciones sobre privacidad

Los temores sobre privacidad de datos que rodean a TikTok —la app china de redes sociales que ha enfrentado restricciones en Estados Unidos— también están surgiendo en torno a DeepSeek.


Su política de privacidad establece:


"La información personal que recopilamos de usted puede almacenarse en un servidor ubicado fuera del país donde vive".
"Almacenamos la información recopilada en servidores seguros ubicados en la República Popular China".


DeepSeek recopila una amplia gama de datos, incluyendo:


- Dirección IP, identificadores únicos de dispositivo y cookies.
- Fecha de nacimiento (si aplica), nombre de usuario, correo electrónico, número de teléfono y contraseña.
- Entradas de texto o voz, prompts, archivos subidos, historial de chats y otros contenidos proporcionados al modelo.
- Pruebas de identidad o edad, así como consultas de soporte.

El documento también señala que si la empresa transfiere datos fuera del país de residencia del usuario, lo hará conforme a las leyes de protección de datos aplicables, pero no menciona el cumplimiento del GDPR (el Reglamento General de Protección de Datos de la UE).


Según Adrianus Warmenhoven, miembro del consejo de seguridad de NordVPN:


"Los usuarios deben ser conscientes de que cualquier dato compartido con la plataforma podría estar sujeto al acceso del gobierno bajo las leyes de ciberseguridad de China, que exigen que las empresas proporcionen acceso a los datos si las autoridades lo solicitan".


Además, Warmenhoven señala que el modelo de IA de DeepSeek ha enfrentado críticas por evitar ciertos temas políticos, lo que genera preocupaciones sobre posibles sesgos y control externo en su moderación de contenido.


Por otro lado, el hecho de que R1 sea de código abierto brinda mayor transparencia, ya que los usuarios pueden analizar el código en busca de posibles riesgos de privacidad. DeepSeek también lanzó versiones más pequeñas de R1, que pueden descargarse y ejecutarse localmente para evitar que los datos sean enviados a la compañía (algo que no ocurre cuando se usa el chatbot en línea).


Cabe recordar que todos los chatbots, incluyendo ChatGPT, recopilan cierta cantidad de datos cuando se usan en el navegador.


¿Qué significa esto para el futuro de la IA?

El éxito de R1 marca un cambio importante en la industria de la IA, mostrando que laboratorios más pequeños pueden desarrollar modelos competitivos sin necesidad de recursos al nivel de OpenAI.


Por ejemplo, justo antes del lanzamiento de R1, un grupo de investigadores de UC Berkeley creó un modelo de código abierto comparable con o1-preview (una versión temprana de o1) en solo 19 horas y con un costo aproximado de $450.


Dado el enorme costo de la inversión en IA, muchos especulan que este tipo de avances podría desinflar la burbuja de la IA. De hecho, varios informes sugieren que el mercado de valores ya está reaccionando con nerviosismo.


El ascenso de DeepSeek llega en un momento crítico para las relaciones tecnológicas entre China y EE.UU., apenas días después de que entrara en vigor una prohibición parcial de TikTok en Estados Unidos. Irónicamente, DeepSeek explica abiertamente los riesgos de seguridad que el gobierno estadounidense intentó probar sobre TikTok durante años.


Vía | What to know about DeepSeek AI, from cost claims to data privacy | ZDNET

https://tecnologiaconjuancho.com/deepseek-r1-la-ia-china-que-desafia-a-openai-con-codigo-abierto/

28 enero 2025

DeepSeek: El rival chino que desafía a los gigantes de la IA

DeepSeek: El rival chino que desafía a los gigantes de la IA

DeepSeek, la startup china que se ha burlado del oligopolio de inteligencia artificial de Silicon Valley inflado por capitales, lo ha vuelto a hacer. El lunes por la mañana, la empresa anunció el lanzamiento de otro sistema de inteligencia artificial de código abierto, esta vez un generador de imágenes que, según la compañía, supera a DALL-E de OpenAI y a Stable Diffusion de Stability AI.


El modelo, llamado Janus-Pro-7B, fue presentado en un artículo técnico publicado en la página de GitHub de DeepSeek el lunes. Es una actualización de Janus, un modelo más sencillo que se lanzó en octubre pasado. Janus promete llevar la automatización multimodal a un nuevo nivel, ya que puede generar imágenes y analizarlas, según la empresa. El artículo asegura que el modelo de DeepSeek supera tanto a DALL-E como a Stable Diffusion en múltiples pruebas de referencia de IA.


Este lanzamiento llega poco después de que se informara que el modelo R1 de la startup, lanzado en diciembre, ha superado a ChatGPT en descargas en la App Store de Apple. Esa noticia ya sería notable por sí sola, pero DeepSeek también afirma que logró crear R1, un modelo de “razonamiento” de código abierto, en tan solo dos meses y con un presupuesto de apenas 6 millones de dólares. Si se considera que OpenAI, la principal empresa de IA de Estados Unidos, vale más de 100 mil millones de dólares y opera como un sistema cerrado, no es difícil entender por qué los gigantes tecnológicos estadounidenses podrían estar alarmados.



Sin embargo, el mismo lunes en que DeepSeek lanzó su generador de imágenes, la compañía informó que estaba siendo víctima de “ataques maliciosos a gran escala” en su red, según Reuters. Como resultado, anunció que limitaría temporalmente el registro de nuevos usuarios, aunque aseguró que el servicio no se vería afectado para los usuarios actuales.


Los lanzamientos de DeepSeek han sacudido el mercado bursátil estadounidense, y es fácil entender por qué. Estados Unidos ha intentado estructurar gran parte de su economía en torno a la industria de la IA, y Wall Street ha invertido miles de millones en las empresas que desarrollan esta tecnología. Recientemente, la administración Trump anunció “Stargate”, un esfuerzo de 500 mil millones de dólares para crear infraestructura de IA mediante la construcción de centros de datos en todo el país. La cantidad obscena de poder y capital que ha fluido hacia este pequeño grupo de empresas tecnológicas contrasta con el hecho de que una compañía china con una fracción de esos recursos logró crear un producto comparable en menos tiempo y llegar a la cima de las listas de descargas móviles en cuestión de semanas.


Ante esto, los inversionistas han corrido a vender acciones tecnológicas, y muchos comentan frases como “RIP ChatGPT” y “DeepSeek podría ser un evento de extinción para las firmas de capital de riesgo”.


Sin embargo, antes de escribir el obituario de OpenAI, vale la pena señalar que algunos analistas predicen que las innovaciones de DeepSeek podrían fortalecer aún más el compromiso de Estados Unidos con la industria de la IA. Como todos sabemos, Estados Unidos siempre busca ser el mejor en todo, y el hecho de haber sido superado en la carrera de la IA solo puede significar una cosa: es hora de redoblar los esfuerzos.


Vía | DeepSeek Releases Open-Source AI Image Generator as American Stocks Continue to Crater

https://tecnologiaconjuancho.com/deepseek-el-rival-chino-que-desafia-a-los-gigantes-de-la-ia/

¿Cómo DeepSeek sacudió el dominio de IA en Silicon Valley?

¿Cómo DeepSeek sacudió el dominio de IA en Silicon Valley?

Una semana después de prohibir que TikTok se descargue en las tiendas de aplicaciones (no, todavía no está disponible) y un día después de amenazar a Colombia con aranceles del 25%, Estados Unidos ha sufrido un golpe importante en sus guerras comerciales en curso: de la noche a la mañana, Silicon Valley parece haber perdido su dominio en inteligencia artificial.


El cambio se debe al anuncio de la joven startup china de IA, DeepSeek, que el 20 de enero actualizó su asistente de inteligencia artificial similar a ChatGPT con su modelo de razonamiento de código abierto, R1. Según las pruebas de DeepSeek, el modelo R1 iguala en varios indicadores al modelo o1 de OpenAI, pero es mucho más barato de desarrollar.


El Wall Street Journal fue el primero en informar sobre el costo ultra bajo de desarrollo del R1 de DeepSeek, citando las afirmaciones de la compañía, que tiene apenas un año de fundada, sobre haber gastado solo $5.6 millones en su desarrollo, en comparación con más de $100 millones que OpenAI habría invertido en un modelo equivalente.



Aunque tomó un poco de tiempo para que la noticia se difundiera, DeepSeek ha logrado posicionarse como la aplicación gratuita más descargada en la App Store, desplazando a ChatGPT. Este repentino aumento de atención ha afectado negativamente a las acciones estadounidenses, con el Dow Jones cayendo un 0.22%, el S&P 500 un 2% y el Nasdaq un 3.6%. Más específicamente, la empresa matriz de Google, Alphabet, bajó un 2.89%, mientras que otras gigantes tecnológicas como Meta, Oracle y Nvidia también registraron caídas significativas. En particular, Nvidia, que fabrica la mayoría del hardware utilizado en el desarrollo de IA, sufrió una caída del 11.64%.


La caída de las acciones de Nvidia podría estar relacionada con las afirmaciones de DeepSeek de que solo necesitaron aproximadamente 2,000 chips especializados de Nvidia para entrenar su modelo de IA, en comparación con los cerca de 16,000 chips que suelen usar los modelos líderes de Estados Unidos. Estas afirmaciones aún están pendientes de verificación, pero de ser ciertas, pondrían en entredicho las políticas recientes de EE. UU. para limitar la cantidad de chips estadounidenses disponibles para los desarrolladores chinos.


Desde el lado del consumidor, DeepSeek promete acceso más económico a modelos de mayor nivel en comparación con ChatGPT, que pone el acceso básico a su modelo o1 detrás de una suscripción de $20/mes para ChatGPT Plus, y el acceso ilimitado a este modelo bajo su costoso plan ChatGPT Pro de $200/mes. Sin embargo, la compañía parece estar enfrentando dificultades por su éxito actual: los servidores están sobrecargados, y en este momento no es posible registrarse para probar el servicio. Se espera que, a medida que más personas puedan acceder y probar estos modelos, sea más fácil verificar cuánto deberían preocuparse las empresas estadounidenses por DeepSeek.


Aun así, esta competencia podría ser un llamado de atención para los desarrolladores de IA en EE. UU., quienes, junto con el presidente Trump, acaban de anunciar el "Proyecto Stargate" de $500 mil millones, una iniciativa para fortalecer la infraestructura de IA en el país, comenzando con un plan de $100 mil millones para construir centros de datos en Texas.


Vía | DeepSeek Releases Open-Source AI Image Generator as American Stocks Continue to Crater

https://tecnologiaconjuancho.com/como-deepseek-sacudio-el-dominio-de-ia-en-silicon-valley/

DeepSeek: La IA revolucionaria que reta a los gigantes tecnológicos

DeepSeek: La IA revolucionaria que reta a los gigantes tecnológicos

Un laboratorio chino de inteligencia artificial ha logrado más que simplemente construir un modelo de IA más económico: ha expuesto la ineficiencia del enfoque de toda la industria.


El avance de DeepSeek demostró cómo un equipo pequeño, en un esfuerzo por ahorrar dinero, pudo replantear la manera en que se construyen los modelos de IA. Mientras gigantes tecnológicos como OpenAI y Anthropic gastan miles de millones de dólares únicamente en poder de cómputo, DeepSeek supuestamente logró resultados similares por poco más de $5 millones.


El modelo de la compañía iguala o supera a GPT-4o (el mejor modelo LLM de OpenAI), OpenAI o1 (su modelo de razonamiento más avanzado) y Claude 3.5 Sonnet de Anthropic en muchas pruebas de referencia, utilizando aproximadamente 2.788 millones de horas de GPU H800 para todo su entrenamiento. Esto representa una fracción mínima del hardware que tradicionalmente se considera necesario.


El modelo es tan bueno y eficiente que rápidamente se posicionó en la cima de las aplicaciones de productividad en iOS, desafiando la hegemonía de OpenAI.


DeepSeek you ask? Their latest, DeepSeek-R1, is matching the big players' LLM performance, think ChatGPT or Gemini, but here's the kicker: they allegedly did it for a fraction of the cost, just $5.5 million, while the likes of OpenAI and Google are spending tens to hundreds of… pic.twitter.com/YLCFZtc7AO

— Wolfe (@everytimeicash) January 27, 2025

La necesidad es la madre de la innovación. El equipo logró este avance utilizando técnicas que los desarrolladores estadounidenses no necesitaban considerar y que aún no dominan. Quizás la más importante fue que, en lugar de usar cálculos de precisión completa, DeepSeek implementó un entrenamiento en 8 bits, reduciendo los requisitos de memoria en un 75 %.


“Descubrieron cómo usar entrenamiento en punto flotante de 8 bits, al menos para algunos cálculos,” dijo Aravind Srinivas, CEO de Perplexity, a CNBC. “Hasta donde sé, creo que el entrenamiento en punto flotante de 8 bits no está tan bien entendido. La mayoría de los entrenamientos en Estados Unidos aún se realizan en FP16”.


El FP8 utiliza la mitad del ancho de banda y almacenamiento de memoria en comparación con el FP16. Para modelos de IA grandes con miles de millones de parámetros, esta reducción es significativa. DeepSeek tuvo que dominar esto debido a su hardware limitado, algo que OpenAI nunca ha enfrentado.



DeepSeek también desarrolló un sistema de "múltiples tokens" que procesa frases completas en lugar de palabras individuales, duplicando la velocidad del sistema y manteniendo un 90 % de precisión.


Otra técnica que emplearon fue la "destilación", que permite que un modelo pequeño replique las salidas de uno más grande sin entrenarlo en la misma base de datos de conocimiento. Esto les permitió lanzar modelos más pequeños, extremadamente eficientes, precisos y competitivos.


Además, utilizaron una técnica llamada “mezcla de expertos,” que mejoró la eficiencia del modelo. Mientras los modelos tradicionales mantienen todos sus parámetros activos constantemente, el sistema de DeepSeek utiliza 671 mil millones de parámetros totales, pero solo activa 37 mil millones a la vez. Es como tener un equipo grande de especialistas, pero solo convocar a los expertos necesarios para tareas específicas.


“Usamos DeepSeek-R1 como modelo maestro para generar 800,000 muestras de entrenamiento y afinamos varios modelos densos pequeños. Los resultados son prometedores: DeepSeek-R1-Distill-Qwen-1.5B supera a GPT-4o y Claude-3.5-Sonnet en pruebas matemáticas con un 28.9 % en AIME y un 83.9 % en MATH,” escribió DeepSeek en su informe.


Para dar contexto, 1.5 mil millones es tan pequeño en términos de parámetros que no se considera un LLM (modelo de lenguaje grande), sino un SLM (modelo de lenguaje pequeño). Los SLM requieren tan poca computación y memoria que los usuarios pueden ejecutarlos en dispositivos básicos como teléfonos inteligentes.


Clearly you don't understand OpenAI needs billions of dollars of hardware to answer the same question the DeepSeek can answer on your home computer without an internet connection.

It literally costs 97% less per query. pic.twitter.com/EBc0dHjaru

— Financelot (@FinanceLancelot) January 26, 2025

Las implicaciones de costos son sorprendentes. Más allá de una reducción del 95 % en los costos de entrenamiento, la API de DeepSeek cobra solo 10 centavos por millón de tokens, en comparación con los $4.40 de servicios similares. Un desarrollador informó haber procesado 200,000 solicitudes de API por aproximadamente 50 centavos, sin restricciones de uso.


El “efecto DeepSeek” ya es evidente. "Voy a decir lo que nadie quiere admitir: construir modelos de IA es una trampa de dinero," dijo el inversor Chamath Palihapitiya. A pesar de los golpes recibidos por DeepSeek, el CEO de OpenAI, Sam Altman, redujo rápidamente su enfoque de exprimir dinero a los usuarios, tras las alabanzas en redes sociales sobre personas logrando con DeepSeek lo mismo que OpenAI cobra $200 al mes.


ok we heard y’all.

*plus tier will get 100 o3-mini queries per DAY (!)
*we will bring operator to plus tier as soon as we can
*our next agent will launch with availability in the plus tier

enjoy 😊 https://t.co/w8sFsq6mI1

— Sam Altman (@sama) January 25, 2025

Mientras tanto, la app de DeepSeek lidera las listas de descargas, y tres de los seis repositorios más populares en Github están relacionados con DeepSeek.


La mayoría de las acciones de empresas de IA están cayendo, ya que los inversores cuestionan si el entusiasmo por esta tecnología está en niveles de burbuja. Tanto las acciones de hardware (Nvidia, AMD) como de software de IA (Microsoft, Meta y Google) están sufriendo las consecuencias del cambio de paradigma provocado por el anuncio de DeepSeek y los resultados compartidos por usuarios y desarrolladores.


Incluso los tokens de criptomonedas relacionados con IA se han visto afectados, con una avalancha de imitadores de tokens de DeepSeek intentando estafar a inversores inexpertos.


Más allá del impacto financiero, lo que queda claro es que el avance de DeepSeek sugiere que el desarrollo de IA podría no requerir enormes centros de datos ni hardware especializado. Esto podría alterar fundamentalmente el panorama competitivo, transformando lo que muchos consideraban ventajas permanentes de las grandes tecnológicas en liderazgos temporales.


While Anthropic and OpenAI were busy boasting and trying to hype things up to attract heavy investments, DeepSeek came out of nowhere and completely washed them off.pic.twitter.com/NkNpYYcGUg

— AshutoshShrivastava (@ai_for_success) January 27, 2025

El momento resulta casi irónico. Días antes del anuncio de DeepSeek, el expresidente Trump, Sam Altman de OpenAI y el fundador de Oracle presentaron el Proyecto Stargate, una inversión de $500 mil millones en infraestructura de IA en EE. UU. Mientras tanto, Mark Zuckerberg duplicó el compromiso de Meta de invertir miles de millones en IA, y la inversión de $13 mil millones de Microsoft en OpenAI parece menos una genialidad estratégica y más un caso de FOMO impulsado por un desperdicio de recursos.


“Lo que hicieron para evitar que los alcanzaran no importó,” dijo Srinivas a CNBC. “De todos modos, los alcanzaron.”


Vía | Why China's DeepSeek AI Is Blowing Everyone's Minds—And Blowing Up the Market - Decrypt

https://tecnologiaconjuancho.com/deepseek-la-ia-revolucionaria-que-reta-a-los-gigantes-tecnologicos/

27 enero 2025

Descubre cómo ChatGPT revolucionó mi búsqueda genealógica con ADN

Descubre cómo ChatGPT revolucionó mi búsqueda genealógica con ADN

En 2017, envié muestras de ADN a Ancestry, así como a otras dos compañías de ADN. Mis padres habían fallecido recientemente y tenía algunas preguntas sobre mi origen familiar que esperaba que el ADN pudiera revelar.


Desde entonces, he estado investigando mi árbol genealógico. Me gusta buscar en documentos y conexiones, seguir pistas y actualizar gráficos.


Pero, hace unas semanas, fui contactado por uno de mis coincidencias de ADN. Fue una conexión algo extraña.


Según los datos del ADN, sabía exactamente cuán relacionados estábamos (aproximadamente primos terceros), con un 1% de ADN compartido. Pero no sabía (y aún no sé) el género ni el nombre de la persona. El contacto usó un nombre de usuario de Ancestry, que no indicaba ni género ni primer nombre. También sé que la persona tiene una edad aproximada similar a la mía, porque me dijo su edad en el mensaje.


Y luego, las cosas se pusieron interesantes. Mi primo (porque sé que la persona es mi primo, aunque no sepa su nombre) le pidió a ChatGPT que proporcionara información sobre nuestra posible relación basada en los datos del ADN. Eso incluyó la esperanza de vida promedio y los períodos de nacimiento y muerte de nuestros ancestros compartidos.



Le pedí permiso a este primo misterioso para contarles sobre su uso de ChatGPT, lo cual me dio. Basado en la transcripción de su sesión, junto con algunas de mis propias preguntas, ChatGPT pudo arrojar algo de luz sobre la conexión familiar.


En este artículo, les mostraré cómo utilicé ChatGPT (y, por extensión, cómo pueden usarlo ustedes) para explorar las conexiones genealógicas entre familiares de ADN. Les mostraré las preguntas que hice, pero en la mayoría de los casos, simplemente resumiré las respuestas, porque pueden ser bastante largas.


¿Cómo estamos relacionados?


Mi punto de partida fue el propio dato del ADN. Según Ancestry:


- ADN compartido: 95 cM a través de 10 segmentos en mi lado materno
- ADN compartido sin ponderar: 95 cM
- Segmento más largo: 16 cM

Ancestry predijo que éramos "medio primo segundo 1x removido", pero la cantidad de ADN compartido no necesariamente coloca la relación en un árbol genealógico. Simplemente te dice cuántos saltos hay entre una persona y la otra. Entonces, esos saltos pueden ir de manera uniforme hacia arriba y abajo en el árbol, o parcialmente hacia arriba en un lado y hacia abajo una generación más en el otro, o alguna variedad de los dos.


Comencé a preguntar a ChatGPT sobre los datos del ADN. Pregunté:


¿Qué significa esto? ADN compartido: 95 cM a través de 10 segmentos ADN compartido sin ponderar: 95 cM Segmento más largo: 16 cM


Me dijeron que cM es una unidad de medida para la vinculación genética. Mide la longitud del ADN compartido entre dos individuos. El valor de 95 indica primos segundos o más lejanos. El ADN se comparte en bloques o segmentos. Cuantos más segmentos, más cercana es la relación. Los segmentos más grandes indican relaciones más cercanas, mientras que los segmentos más pequeños indican relaciones más distantes.


Nuestro ADN compartido tenía pocos segmentos compartidos, y esos segmentos eran bastante pequeños. Juntos, eso nos ponía a unos ocho saltos generacionales el uno del otro.


¿Qué tipo de primos?


Sabía que mi primo y yo tenemos más o menos la misma edad, así que pregunté:


Si ambas partes son de edades similares, ¿serían más probablemente primos terceros o primos segundos una vez removidos?


En este caso, probablemente seríamos primos terceros. La frase "x removido" indica una diferencia en generaciones. Dado que ambos tenemos más o menos la misma edad, nuestra etiqueta generacional no incluiría "removido". En su lugar, seríamos más probablemente primos terceros.


Hazme un diagrama


Tuve problemas visualizando esto, así que le pedí a ChatGPT que me diera un diagrama. Mi primer prompt fue, "Quisiera una visualización de esto. Usa DALL·E." Recibí lo que sea que eso deba ser.



Luego intenté, "Por favor, crea una visualización usando un diagrama en lugar de una imagen." Recibí un diagrama que listaba "bisabuelo" en cada nodo.


Así que corregí a ChatGPT diciendo, "Ese diagrama no parece correcto. Has etiquetado a los bisabuelos en cada nodo." Eso resultó en este diagrama, que hace que la relación con mi primo sea bastante clara, si es correcto. Busqué corroboración en otro lado, y parece correcto.



Así que, ahora pude ver que nuestras familias se conectaron a través de los abuelos de mis abuelos. Eso hace difícil ver los vínculos familiares porque solo he identificado provisionalmente a un bisabuelo en todo mi árbol.


¿Cuántos abuelos?


Eso me llevó a otra pregunta: ¿Cuántos abuelos posibles hay en el grupo ancestral que mi primo y yo compartimos? Esto es lo que le pregunté a ChatGPT:


A nivel de primo tercero, ¿qué tan grande es el grupo de bisabuelos?


La IA respondió que a nivel de primo tercero, cada uno de nosotros tiene un grupo de 16 bisabuelos. Compartimos un par de bisabuelos, lo que significa que cada uno de nosotros también tiene 15 bisabuelos que son únicos para cada uno de nosotros.


Yo solo he identificado a un bisabuelo en todo mi árbol. He tenido dificultades para confirmar quiénes son mis bisabuelos (aparentemente "Poppy", que es la única forma en que mi madre se refería a su bisabuelo, no es un buen término de búsqueda). Esto hace bastante improbable que la persona que he identificado (o puede que haya identificado porque los datos no son claros) sea el bisabuelo compartido.


Preguntas generacionales


En una conversación corta a través de la interfaz de mensajería de Ancestry, mi primo describió a ChatGPT como "mi nuevo mejor amigo". Usó ChatGPT para intentar averiguar cuándo pudo haber vivido nuestro ancestro común. Como mi primo dijo que "nuestro ancestro compartido probablemente vivió en Rusia", supongo que estamos trabajando con el árbol genealógico de mi abuela materna, ya que su familia vino de Rusia.


Con la información anterior, modifiqué ligeramente el prompt de mi primo y le proporcioné lo siguiente a ChatGPT:


Estoy tratando de identificar los posibles años de nacimiento y muerte de un ancestro compartido. Mi primo comparte el 1% de mi ADN y previamente determinamos que probablemente somos primos terceros. También tenemos edades similares, nacidos en la década de 1960.


Sé que los padres de mi abuela materna vinieron de Ravna, que está a medio camino entre Moscú y San Petersburgo en Rusia.


El padre de mi abuela materna llegó a Estados Unidos en 1902, a los 21 años. Su esposa llegó en 1898 o 1900 (dependiendo de la fuente que se crea), pero se casaron en 1905. Ella tenía 28 años cuando se casaron. Él tenía 24.


La familia de mi primo llegó alrededor de 1880. Basado en las expectativas de vida promedio en la era y país de origen del ancestro, ¿cuáles serían los años de nacimiento y muerte más probables del ancestro?


La IA desglosó la respuesta en cuatro elementos: identificar la generación probable del ancestro compartido, determinar los años de nacimiento, estimar los años de muerte y cruzar con los datos de migración. En la primera ronda, ChatGPT estimó que nuestros ancestros compartidos nacieron entre 1847 y 1861 y murieron entre 1870 y 1921.


ChatGPT luego preguntó, "¿Te gustaría que refine esto con más contexto histórico o explore otros aspectos de esta estimación?" A lo que respondí, "Sí." Sé que, estrictamente hablando, "Sí" no responde a una pregunta de opción, pero lo intenté. La IA lo interpretó como que quería más información, lo cual fue la opción correcta.


Echó un vistazo nuevamente a las líneas de tiempo familiares, teniendo en cuenta los detalles de la migración. A partir de eso, redujo el rango de años de nacimiento a 1835-1861 y de muerte a 1870-1880.


Luego preguntó, "¿Te gustaría obtener más información, como factores culturales o regionales que podrían reducir aún más este rango?" En este caso, respondí, "Ambas familias eran judías."


ChatGPT reconoció correctamente que este detalle podría cambiar las estimaciones, porque "las familias judías en la Rusia del siglo XIX experimentaron patrones demográficos, culturales y migratorios únicos." La vida no era fácil para nuestros ancestros en ese entonces, con pogromos, residencia forzada en guetos étnicos y la estructura comunitaria única de los judíos rusos a fines de los 1800.


A partir de esto, ChatGPT determinó:


- Rango de años de nacimiento: ~1820–1840 (dependiendo del tiempo generacional).
- Rango de años de muerte: ~1870–1900 (posiblemente más cerca de ~1880, si murieron antes o durante la emigración de sus hijos).

Si desean ver toda la sesión de ChatGPT, pueden hacer clic en este enlace.


La conexión de ADN


Encuentro algo de esto extrañamente fascinante. El cuerpo humano contiene aproximadamente 200-250 gramos de ADN, que es aproximadamente el peso de una manzana de tamaño medio. La cantidad de ADN que mi primo y yo compartimos es alrededor del 1% de eso, o aproximadamente el peso de un clip de papel pequeño.


Ese "clip de papel" está compuesto por grupos de azúcar y fosfato, codificados con pares de adenina y timina usando dos enlaces de hidrógeno, y pares de citosina y guanina usando tres enlaces de hidrógeno. Cada una de estas cuatro moléculas contiene átomos de nitrógeno.


A partir de eso, podemos saber que una persona que nunca he conocido y yo compartimos un fragmento de código del tamaño de un clip, que nos identifica como descendientes de dos personas que vivieron en Rusia en la misma época en que Estados Unidos tenía su Guerra Civil.


No conocemos a esas dos personas. No conocemos sus historias. No conocemos sus nombres. Sin embargo, existimos porque algo unió a esos dos ancestros, y una serie de eventos improbables e imposibles de conocer a lo largo de los últimos 150 años llevó a que dos extraños nacieran en el lado opuesto del mundo de donde vivieron nuestros bisabuelos.


No hablamos el idioma que ellos hablaban, y el planeta en el que vivimos es muy diferente al que ellos habitaron. Y, sin embargo, estamos aquí, y ustedes están leyendo esto, solo gracias a ellos.


¿Tienes alguna historia interesante sobre ADN? ¿Has intentado usar ChatGPT como herramienta para investigar tu herencia? Déjanos saber en los comentarios.


Vía | Have a genealogy mystery? How I used AI to solve a family puzzle | ZDNET

https://tecnologiaconjuancho.com/descubre-como-chatgpt-revoluciono-mi-busqueda-genealogica-con-adn/

Descubre Perplexity Assistant: Tu aliado para simplificar la vida digital

Descubre Perplexity Assistant: Tu aliado para simplificar la vida digital

El motor de búsqueda impulsado por inteligencia artificial Perplexity ha lanzado una especie de "agente" llamado Perplexity Assistant, que, según la empresa, utiliza razonamiento, búsquedas y aplicaciones para ayudar con tareas diarias.


Perplexity Assistant, disponible desde este jueves para dispositivos Android a través de la aplicación de Perplexity, puede realizar acciones en varias aplicaciones, como pedir un servicio de transporte o buscar una canción, según la compañía.


Gracias a que el motor de búsqueda de Perplexity lo respalda, Perplexity Assistant tiene acceso a la web. Esto le permite realizar tareas como recordarte un evento encontrando la fecha y hora correctas y creando una entrada en el calendario.


El asistente es multimodal, ya que puede usar la cámara de tu teléfono para responder preguntas sobre lo que te rodea o lo que aparece en tu pantalla. Además, mantiene el contexto de una acción a otra. Por ejemplo, puedes pedirle a Perplexity Assistant que investigue restaurantes en tu zona y que reserve una mesa automáticamente.


We are excited to launch the Perplexity Assistant to all Android users. This marks the transition for Perplexity from an answer engine to a natively integrated assistant that can call other apps and perform basic tasks for you. Update or install Perplexity app on Play Store. pic.twitter.com/FSRDLtVWzB

— Aravind Srinivas (@AravSrinivas) January 23, 2025

Inicialmente, Perplexity Assistant será gratuito para los usuarios de Perplexity en 15 idiomas, incluyendo español, inglés, francés, alemán, japonés, coreano e hindi.


Aunque este producto suena prometedor en teoría, Perplexity ha lanzado productos incompletos en el pasado. Por ejemplo, durante nuestras pruebas, encontramos que su función de compras, diseñada para permitir pedidos sin visitar la página web de un minorista, solía ser lenta y propensa a errores.


Assistant is multimodal, so you can tell it to turn on the camera and ask about what you see in front of you, or on your screen. pic.twitter.com/Jxg6m6WUV3

— Perplexity (@perplexity_ai) January 23, 2025

El CEO de Perplexity, Aravind Srinivas, señaló en una serie de publicaciones en X que algunas acciones de Perplexity Assistant “podrían no siempre funcionar,” pero que la empresa planea resolver estos problemas en los próximos meses. Por ejemplo, Srinivas explicó que actualmente el asistente solo puede resumir correos electrónicos no leídos y citas próximas del calendario si los usuarios habilitan una especie de solución basada en notificaciones.


El lanzamiento de Perplexity Assistant llega pocos días después de que Perplexity presentara Sonar, un servicio de API que permite a empresas y desarrolladores integrar las herramientas de búsqueda generativa de la compañía en sus propias aplicaciones, y adquiriera una plataforma de redes sociales para profesionales llamada Read.cv.


Fundada en 2022, Perplexity ha recaudado más de 500 millones de dólares en capital de riesgo y tiene un valor estimado de 9 mil millones de dólares.


Perplexity está creciendo rápidamente. Su motor de búsqueda impulsado por inteligencia artificial realiza más de 100 millones de consultas cada semana mientras expande iniciativas de monetización, como su programa de publicidad.


Sin embargo, un problema para Perplexity son sus conflictos legales con los editores. Dow Jones y el NY Post, de News Corp, han demandado a Perplexity por lo que describen como una “cleptocracia de contenido.” Otros sitios de noticias también han expresado preocupaciones, y en octubre, The New York Times envió a la startup una orden de cese y desistimiento.


Perplexity, que ofrece un programa de reparto de ingresos para los medios, ha declarado que respeta el contenido de los editores.


Vía | Perplexity launches an assistant for Android | TechCrunch

https://tecnologiaconjuancho.com/descubre-perplexity-assistant-tu-aliado-para-simplificar-la-vida-digital/

Automatiza tareas online con Operator, el nuevo agente de OpenAI

Automatiza tareas online con Operator, el nuevo agente de OpenAI

Después de semanas de rumores, OpenAI ha lanzado Operator, su primer agente de inteligencia artificial. Operator es una aplicación web que puede realizar tareas sencillas en línea, como reservar boletos para conciertos o hacer pedidos de supermercado. La aplicación está impulsada por un nuevo modelo llamado Computer-Using Agent (CUA, por sus siglas en inglés), o "coo-ah" en corto, que se construye sobre el modelo multimodal de lenguaje GPT-4 de OpenAI.


Operator está disponible hoy en operator.chatgpt.com para personas en EE.UU. que se hayan registrado en ChatGPT Pro, el servicio premium de OpenAI de 200 dólares al mes. La empresa afirma que planea expandir la herramienta a otros usuarios en el futuro.


OpenAI asegura que Operator supera a herramientas rivales similares, como Computer Use de Anthropic (una versión de Claude 3.5 Sonnet que puede realizar tareas simples en una computadora) y Mariner de Google DeepMind (un agente de navegación web basado en Gemini 2.0).


El hecho de que tres de las principales empresas de inteligencia artificial del mundo hayan convergido en la misma visión sobre lo que podrían ser los modelos basados en agentes deja claro algo: la batalla por la supremacía en IA tiene una nueva frontera, y esa frontera son nuestras pantallas de computadora.



"Pasar de generar texto e imágenes a hacer cosas es la dirección correcta", dice Ali Farhadi, CEO del Allen Institute for AI (AI2). "Desbloquea negocios, resuelve problemas nuevos".


Farhadi piensa que realizar tareas en una pantalla de computadora es un primer paso natural para los agentes: "Es lo suficientemente limitado como para que el estado actual de la tecnología realmente funcione", explica. "Al mismo tiempo, es lo suficientemente impactante como para que la gente lo use". (AI2 está trabajando en su propio agente de uso de computadora, dice Farhadi.)


No creas todo el ruido


El anuncio de OpenAI también confirma uno de los dos rumores que circularon por internet esta semana. Uno predecía que OpenAI estaba a punto de revelar una aplicación basada en agentes, después de que se filtraran detalles sobre Operator en redes sociales antes de su lanzamiento. El otro rumor predecía que OpenAI estaba a punto de revelar una nueva superinteligencia, y que los funcionarios del recién inaugurado presidente Trump serían informados al respecto.


¿Podrían estar los dos rumores relacionados? Querían saber los superfans de OpenAI.


No. OpenAI le dio a MIT Technology Review un adelanto de Operator en acción ayer. La herramienta es una emocionante visión del potencial de los modelos de lenguaje grande para hacer mucho más que responder preguntas. Pero Operator es un trabajo experimental en progreso. "Aún es temprano, aún comete errores", dice Yash Kumar, un investigador de OpenAI.


(En cuanto a los salvajes rumores de superinteligencia, dejemos que el CEO de OpenAI, Sam Altman, lo aclare: "el ruido en Twitter está fuera de control nuevamente", publicó el 20 de enero. "¡Por favor, cálmense y recorten sus expectativas 100x!")


Al igual que Computer Use de Anthropic y Mariner de Google DeepMind, Operator toma capturas de pantalla de una pantalla de computadora y escanea los píxeles para averiguar qué acciones puede realizar. CUA, el modelo detrás de ella, está entrenado para interactuar con las mismas interfaces gráficas de usuario—botones, cuadros de texto, menús—que las personas usan cuando realizan tareas en línea. Escanea la pantalla, realiza una acción, vuelve a escanear la pantalla, realiza otra acción, y así sucesivamente. Esto permite que el modelo ejecute tareas en la mayoría de los sitios web que una persona puede usar.


"Tradicionalmente, la forma en que los modelos han usado software es a través de APIs especializadas", dice Reiichiro Nakano, científico de OpenAI. (Una API, o interfaz de programación de aplicaciones, es un trozo de código que actúa como un conector, permitiendo que diferentes piezas de software se conecten entre sí). Eso deja fuera muchas aplicaciones y la mayoría de los sitios web, explica: "Pero si creas un modelo que puede usar la misma interfaz que los humanos usan a diario, se abre toda una nueva gama de software que antes era inaccesible".


CUA también descompone las tareas en pasos más pequeños e intenta resolverlos uno por uno, retrocediendo cuando se atasca. OpenAI dice que CUA fue entrenado con técnicas similares a las usadas en sus llamados modelos de razonamiento, o1 y o3.



OpenAI ha probado CUA contra varios estándares de la industria diseñados para evaluar la capacidad de un agente para realizar tareas en una computadora. La empresa afirma que su modelo supera a Computer Use y Mariner en todos ellos.


Por ejemplo, en OSWorld, que evalúa qué tan bien un agente realiza tareas como fusionar archivos PDF o manipular una imagen, CUA obtiene un 38.1%, frente al 22.0% de Computer Use. En comparación, los humanos obtienen un 72.4%. En un estándar llamado WebVoyager, que evalúa qué tan bien un agente realiza tareas en un navegador, CUA obtiene un 87%, Mariner un 83.5%, y Computer Use un 56%. (Mariner solo puede realizar tareas en un navegador, por lo que no tiene puntuación en OSWorld).


Por ahora, Operator también solo puede realizar tareas en un navegador. OpenAI planea hacer disponibles las habilidades más amplias de CUA en el futuro a través de una API que otros desarrolladores podrán usar para construir sus propias aplicaciones. Así es como Anthropic lanzó Computer Use en diciembre.


OpenAI dice que ha probado la seguridad de CUA, usando equipos de pruebas para explorar qué sucede cuando los usuarios le piden realizar tareas inaceptables (como investigar cómo hacer un arma biológica), cuando los sitios web contienen instrucciones ocultas diseñadas para desviar el modelo, y cuando el modelo mismo falla. "Hemos entrenado el modelo para que se detenga y pida información al usuario antes de hacer cualquier cosa con efectos secundarios externos", dice Casey Chu, otro investigador del equipo.


¡Mira! Sin manos Para usar Operator, simplemente escribes instrucciones en un cuadro de texto. Pero en lugar de abrir el navegador en tu computadora, Operator envía tus instrucciones a un navegador remoto ejecutado en un servidor de OpenAI. OpenAI afirma que esto hace que el sistema sea más eficiente. Es otra diferencia clave entre Operator, Computer Use y Mariner (que se ejecuta dentro del navegador Chrome de Google en tu propia computadora).


Debido a que se ejecuta en la nube, Operator puede realizar múltiples tareas a la vez, dice Kumar. En la demostración en vivo, le pidió a Operator que usara OpenTable para reservar una mesa para dos a las 6:30 p.m. en un restaurante llamado Octavia en San Francisco. De inmediato, Operator abrió el sitio de OpenTable y comenzó a hacer clic en las opciones. "Como pueden ver, mis manos están fuera del teclado", dijo Kumar.


OpenAI está colaborando con varias empresas, incluyendo OpenTable, StubHub, Instacart, DoorDash y Uber. La naturaleza de esas colaboraciones no está del todo clara, pero Operator parece sugerir sitios web preestablecidos para usar en ciertas tareas.


Mientras la herramienta navegaba por las opciones de OpenTable, Kumar envió a Operator a encontrar cuatro boletos para un concierto de Kendrick Lamar en StubHub. Mientras hacía eso, pegó una foto de una lista de compras escrita a mano y le pidió a Operator que agregara los artículos a su Instacart.


Esperó, pasando entre las pestañas de Operator. "Si necesita ayuda o confirmaciones, volverá a ti con preguntas y podrás responderle", dijo.


Kumar dice que ha estado usando Operator en casa. Le ayuda a mantenerse al tanto de las compras de supermercado: "Solo puedo tomar una foto rápida de la lista y ponerla a trabajar", dice.


También se ha convertido en un asistente en su vida personal. "Tengo una noche de citas todos los jueves", dice Kumar. Así que cada jueves por la mañana, le da instrucciones a Operator para que le envíe una lista de cinco restaurantes que tengan una mesa para dos esa noche. "Claro, podría hacerlo yo mismo, pero me toma 10 minutos", dice. "Y a menudo se me olvida hacerlo. Con Operator, puedo hacer la tarea con un solo clic. No hay carga de hacer la reserva".


Vía | OpenAI launches Operator—an agent that can use a computer for you | MIT Technology Review

https://tecnologiaconjuancho.com/automatiza-tareas-online-con-operator-el-nuevo-agente-de-openai/

24 enero 2025

Adiós al “¿Mantener sesión iniciada?”: lo que debes saber

Adiós al “¿Mantener sesión iniciada?”: lo que debes saber

Microsoft ha estado tomando algunas decisiones extrañas últimamente. Después de cambiar el nombre de Office en las PC de todos (y no elegir el mejor nombre), la empresa continúa con esta tendencia implementando un cambio importante en la forma en que inicias sesión en tu cuenta de Microsoft.


A partir de febrero de 2025, según un artículo de soporte de Microsoft, permanecerás conectado a tu cuenta a menos que cierres sesión o uses la navegación privada. Aunque esto puede parecer conveniente para el uso diario en tu computadora personal, podría ser un problema si usas un dispositivo público o compartido.


Siempre cierra sesión o usa la navegación privada


Si alguna vez has iniciado sesión en una cuenta de Microsoft desde un navegador web, probablemente hayas visto el mensaje "¿Deseas mantener la sesión iniciada?" después de ingresar tus credenciales. Si seleccionabas "Sí", permanecías conectado. Pero si elegías "No", se cerraba la sesión al finalizar tu sesión de navegación y debías volver a iniciar sesión la próxima vez.



A partir de febrero de 2025, este mensaje de "¿Deseas mantener la sesión iniciada?" desaparecerá, y permanecerás conectado a tu cuenta de Microsoft a menos que cierres sesión manualmente o utilices la navegación privada. Por lo tanto, si usas un dispositivo público, asegúrate de abrir una ventana de navegación privada (como el modo incógnito en Google Chrome) o cierra sesión cuando termines. La navegación privada no guarda el historial ni los datos personales, por lo que la sesión se cerrará automáticamente al cerrar la ventana.


¿Y si olvidas cerrar sesión?



Al final del día, somos humanos y podrías olvidar cerrar sesión por estar apurado. Si esto ocurre después de que entre en vigor el cambio, puedes ir a la página de configuración de privacidad de tu cuenta Microsoft y cerrar sesión en todos los dispositivos. Esto desconectará tu cuenta de todos los navegadores y aplicaciones donde estés conectado, aunque tu consola Xbox quedará exenta de este cambio.


Cerrar sesión cuando usas un dispositivo ajeno o elegir la navegación privada siempre ha sido una buena práctica, pero parece que a partir del próximo mes ¡los usuarios de Microsoft tendrán que seguir esta regla de oro sí o sí!


Vía | Microsoft is changing how sign-in works, and you need to be extra careful

https://tecnologiaconjuancho.com/adios-al-mantener-sesion-iniciada-lo-que-debes-saber/

OpenAI demanda a Elon Musk por campaña de difamación

OpenAI ha presentado una contrademanda contra Elon Musk en la Corte Distrital de EE.UU. para el Distrito Norte de California. Acusan al CEO ...