<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet title="XSL_formatting" type="text/xsl" href="https://news.samsung.com/mx/wp-content/plugins/btr_rss/btr_rss.xsl"?><rss version="2.0"
     xmlns:content="http://purl.org/rss/1.0/modules/content/"
     xmlns:wfw="http://wellformedweb.org/CommentAPI/"
     xmlns:dc="http://purl.org/dc/elements/1.1/"
     xmlns:atom="http://www.w3.org/2005/Atom"
     xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
     xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>
	<channel>
		<title>Samsung Research &#8211; Samsung Newsroom México</title>
		<atom:link href="https://news.samsung.com/mx/tag/samsung-research/feed" rel="self" type="application/rss+xml" />
		<link>https://news.samsung.com/mx</link>
        <image>
            <url>https://img.global.news.samsung.com/image/newlogo/logo_samsung-newsroom_mx.png</url>
            <title>Samsung Research &#8211; Samsung Newsroom México</title>
            <link>https://news.samsung.com/mx</link>
        </image>
        <currentYear>2025</currentYear>
        <cssFile>https://news.samsung.com/mx/wp-content/plugins/btr_rss/btr_rss_xsl.css</cssFile>
		<description>What's New on Samsung Newsroom</description>
		<lastBuildDate>Wed, 08 Apr 2026 17:29:01 +0000</lastBuildDate>
		<language>en-US</language>
		<sy:updatePeriod>hourly</sy:updatePeriod>
		<sy:updateFrequency>1</sy:updateFrequency>
					<item>
				<title>[Entrevista] Pensando en el usuario: el trabajo de investigación avanzado detrás de Audio Eraser</title>
				<link>https://news.samsung.com/mx/entrevista-pensando-en-el-usuario-el-trabajo-de-investigacion-avanzada-detras-de-audio-eraser?utm_source=rss&amp;utm_medium=direct</link>
				<pubDate>Mon, 21 Apr 2025 12:33:01 +0000</pubDate>
						<category><![CDATA[Celulares y Accesorios]]></category>
		<category><![CDATA[Active Noise Cancellation]]></category>
		<category><![CDATA[Adaptive ANC]]></category>
		<category><![CDATA[Audio Eraser]]></category>
		<category><![CDATA[Galaxy AI]]></category>
		<category><![CDATA[Galaxy S25]]></category>
		<category><![CDATA[Galaxy S25 series]]></category>
		<category><![CDATA[Samsung Research]]></category>
                <guid isPermaLink="false">https://bit.ly/3Y9stHG</guid>
									<description><![CDATA[Imagina grabar una presentación en la calle y que el ruido de los autos arruine la música, o filmar un vlog en una cafetería donde el bullicio hace casi]]></description>
																<content:encoded><![CDATA[<p><span data-contrast="auto">Imagina grabar una presentación en la calle y que el ruido de los autos arruine la música, o filmar un vlog en una cafetería donde el bullicio hace casi imposible escuchar las conversaciones.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-contrast="auto">Audio Eraser, presentado con la serie <a href="https://www.samsung.com/mx/smartphones/galaxy-s25-ultra/buy/?cid=mx_ow_affiliate_newsroom_galaxy-s25-ultra_pre-order_none_article_none_none" target="_blank" rel="noopener">Galaxy S25</a>, está diseñado para resolver este tipo de situaciones al reducir el ruido de fondo no deseado y destacar los sonidos que realmente importan, lo que permite crear videos mucho más inmersivos [</span><span data-contrast="auto">1]</span><span data-contrast="auto">. Funciones impulsadas por <a href="https://www.samsung.com/mx/galaxy-ai/?cid=mx_ow_affiliate_newsroom_galaxy-ai_sustain_galaxy-ai_article_none_none" target="_blank" rel="noopener">Galaxy AI</a>, como Audio Eraser, son el resultado de un profundo entendimiento de las necesidades del usuario y del trabajo conjunto entre Samsung Research y el área de Mobile eXperience (MX) de Samsung Electronics.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-contrast="auto">Samsung Newsroom habló con expertos en tecnología de audio del Equipo de Soluciones de AI de Samsung Research para conocer más sobre el desarrollo de esta innovadora función. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p>&nbsp;</p>
<div id="attachment_36673" style="width: 1010px" class="wp-caption alignnone"><img class="size-full wp-image-36673" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main1.jpg" alt="" width="1000" height="666" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main1.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main1-845x563.jpg 845w, https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main1-768x511.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /><p class="wp-caption-text">▲ (De izquierda a derecha): Kyoungbo Min, Hejung Yang, Hosang Sung y Jiwon Kim del Equipo de Soluciones de AI de Samsung Research.</p></div>
<p>&nbsp;</p>
<h3><b><span data-contrast="auto">Detección de fuentes: el futuro de la tecnología de audio de próxima generación</span></b><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></h3>
<p><span data-contrast="auto">Audio Eraser permite a los usuarios ajustar el sonido de un video al eliminar ruidos no deseados y resaltar el audio que realmente quieren destacar. La función analiza rápidamente el contenido para detectar y clasificar los distintos tipos de sonido, y puede utilizarse tanto en videos grabados por el usuario como en aquellos que han sido compartidos o recibidos.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-contrast="auto">Así como Object Eraser mejoró la edición de imágenes y la usabilidad cuando debutó con la serie Galaxy S21, Audio Eraser fue desarrollado para ofrecer una experiencia multimedia más avanzada e integrada, tanto en audio como en video.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p>&nbsp;</p>
<div id="attachment_36674" style="width: 1010px" class="wp-caption alignnone"><img class="size-full wp-image-36674" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main2.jpg" alt="" width="1000" height="666" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main2.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main2-845x563.jpg 845w, https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main2-768x511.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /><p class="wp-caption-text">▲ Audio Eraser permite a los usuarios ajustar los sonidos por tipo dentro de un video.</p></div>
<p>&nbsp;</p>
<h3><b><span data-contrast="auto">Desarrollo de modelos de detección y separación de fuentes de sonido</span></b><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></h3>
<p><span data-contrast="auto">Audio Eraser reconoce seis tipos de sonido: voces, música, viento, sonidos de la naturaleza, ruido de multitudes y ruido ambiental. Gracias a su tecnología de detección de fuentes de sonido, la función identifica con rapidez qué sonidos aparecen y en qué momento del video. A partir de ahí, utiliza un sistema de separación para aislarlos y clasificarlos en diferentes categorías.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-contrast="auto">Para construir modelos de AI capaces de detectar y aislar estos tipos de audio, el equipo de investigación partió de un conjunto sólido de datos de entrenamiento. Simuló una amplia variedad de escenarios reales de grabación de video para generar muestras de audio diversas, y también realizó grabaciones en campo para capturar sonidos cotidianos de primera mano. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><i><span data-contrast="auto">&#8220;El viento representó uno de los mayores desafíos&#8221;</span></i><span data-contrast="auto">, señaló Hejung Yang, del Equipo de Soluciones de AI de Samsung Research. </span><i><span data-contrast="auto">&#8220;Además de perfeccionar nuestra tecnología de simulación, fortalecimos el conjunto de datos con grabaciones reales de viento en exteriores, aprovechando cada oportunidad con ráfagas fuertes, incluso fuera del horario laboral o durante los fines de semana&#8221;</span></i><span data-contrast="auto">.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-contrast="auto">El equipo también dedicó mucho tiempo a mejorar el rendimiento del modelo de separación de fuentes de sonido, revisando minuciosamente innumerables clips de video en múltiples ocasiones.</span><span data-ccp-props="{}"> </span></p>
<p><span data-ccp-props="{}"> </span></p>
<p><i><span data-contrast="auto">&#8220;Cada desarrollador analizó y comparó más de 1,000 muestras de audio por semana en diversas condiciones&#8221;</span></i><span data-contrast="auto">, explicó Jiwon Kim. </span><i><span data-contrast="auto">&#8220;Mediante experimentos continuos, buscamos identificar el modelo de separación más eficaz, asegurando así resultados consistentes y de alta calidad&#8221;</span></i><span data-contrast="auto">.</span><span data-ccp-props="{}"> </span></p>
<p>&nbsp;</p>
<div id="attachment_36675" style="width: 1010px" class="wp-caption alignnone"><img class="size-full wp-image-36675" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main3.jpg" alt="" width="1000" height="666" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main3.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main3-845x563.jpg 845w, https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main3-768x511.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /><p class="wp-caption-text">▲ Investigadores de Samsung trabajan en el desarrollo de la tecnología de audio para Audio Eraser.</p></div>
<p>&nbsp;</p>
<h3><b><span data-contrast="auto">Ofreciendo una nueva experiencia auditiva centrada en el usuario</span></b><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></h3>
<p><span data-contrast="auto">Como Audio Eraser se ejecuta directamente en el dispositivo, permite una edición en tiempo real y ofrece una mayor protección de la privacidad. La vasta experiencia de Samsung en el desarrollo de capacidades de AI en el dispositivo, aplicada a diversas funciones, fue fundamental para el éxito de esta innovadora herramienta. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><i><span data-contrast="auto">&#8220;Nos centramos en desarrollar modelos y algoritmos de AI capaces de procesar rápidamente en el dispositivo&#8221;</span></i><span data-contrast="auto">, comentó Hosang Sung.</span><i><span data-contrast="auto"> &#8220;Se dedicó un gran esfuerzo a crear una solución de AI optimizada que funcione de manera eficiente y con bajo consumo de energía&#8221;</span></i><span data-contrast="auto">.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-contrast="auto">Respaldado por una sólida infraestructura de investigación en AI, Samsung Research sigue reforzando sus capacidades en tecnologías de audio avanzadas. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p>&nbsp;</p>
<p><i><span data-contrast="auto">&#8220;Estamos comprometidos con el desarrollo de soluciones de próxima generación que mejoren la usabilidad de los dispositivos móviles&#8221;</span></i><span data-contrast="auto">, expresó Hoonyoung Cho, Vicepresidente y líder del Equipo de Soluciones de AI en Samsung Research.</span><i><span data-contrast="auto"> &#8220;Mediante el control del sonido y las tecnologías de mejora de audio, buscamos ofrecer una experiencia auditiva realmente personalizada y selectiva&#8221;</span></i><span data-contrast="auto">.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p>&nbsp;</p>
<p><img class="alignnone size-full wp-image-36676" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main4.jpg" alt="" width="1000" height="613" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main4.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main4-918x563.jpg 918w, https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main4-768x471.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<h3><b><span data-contrast="auto">Colaboración integrada con los equipos de desarrollo de productos</span></b><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></h3>
<p><span data-contrast="auto">Convertir investigaciones avanzadas en soluciones listas para el consumidor presentó nuevos desafíos. Por ejemplo, al editar audio y video simultáneamente, era esencial mantener una reproducción fluida y sin interrupciones. Además, procesar videos de más de una hora exigía tecnología especializada capaz de realizar la tarea en el mismo tiempo.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-contrast="auto">Para superar estos retos, Samsung Research y el área de Mobile eXperience (MX) colaboraron estrechamente, desde la generación de ideas centradas en el usuario hasta las pruebas continuas de optimización de software y evaluación de calidad de audio. Juntos, exploraron diversos enfoques para encontrar la solución más eficaz.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-contrast="auto">Esta colaboración interfuncional ya había demostrado ser exitosa en el desarrollo de la serie Galaxy Buds3 (<a href="https://www.samsung.com/mx/audio-sound/galaxy-buds/galaxy-buds3-pro-silver-sm-r630nzaamxo/?cid=mx_ow_affiliate_newsroom_buds-3-pro_sustain_none_article_none_none" target="_blank" rel="noopener">Buds3, Buds3 Pro</a>). A medida que crecen las necesidades de escucha en entornos ruidosos, ya sea para disfrutar música, contenido multimedia o realizar llamadas más claras, la cancelación activa de ruido (ANC) se ha convertido en una función cada vez más esencial en los audífonos inalámbricos. Samsung elevó el estándar al desarrollar su propia tecnología Adaptive ANC. La serie <a href="https://www.samsung.com/mx/audio-sound/galaxy-buds/galaxy-buds3-silver-sm-r530nzaamxo/?cid=mx_ow_affiliate_newsroom_buds-3_sustain_none_article_none_none" target="_blank" rel="noopener">Galaxy Buds3</a> se adapta tanto a la forma en que se ajustan los audífonos a cada usuario como a los cambios en ese ajuste con el uso prolongado, para ofrecer un rendimiento ANC optimizado.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-contrast="auto"> </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-contrast="auto">Dado que los audífonos se usan directamente en el oído, fue fundamental una estrecha coordinación entre los equipos de hardware y software para definir las especificaciones del producto y ajustar la tecnología ANC.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p><i><span data-contrast="auto">&#8220;Desarrollamos múltiples algoritmos por adelantado para adaptarnos a distintas condiciones de hardware&#8221;</span></i><span data-contrast="auto">, destacó Kyoungbo Min. </span><i><span data-contrast="auto">&#8220;A través de simulaciones extensas, preparamos una solución capaz de adaptarse rápidamente a cualquier chipset o dispositivo. El proceso de desarrollo incluyó revisiones e iteraciones constantes, pero la colaboración estrecha entre los equipos de investigación avanzada y desarrollo de producto ayudó a acelerar la comercialización”</span></i><span data-contrast="auto">.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p>&nbsp;</p>
<p><img class="alignnone size-full wp-image-36677" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main5.jpg" alt="" width="1000" height="666" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main5.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main5-845x563.jpg 845w, https://img.global.news.samsung.com/mx/wp-content/uploads/2025/04/Samsung-Mobile-Galaxy-S25-series-Audio-Eraser-Galaxy-AI-Samsung-Research-interview_main5-768x511.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<p><span class="TextRun SCXW203423038 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW203423038 BCX0">La separación de fuentes de sonido es un área clave en la tecnología de audio de próxima generación, y Samsung sigue avanzando en sus innovaciones en este campo. Con Audio </span><span class="NormalTextRun SpellingErrorV2Themed SCXW203423038 BCX0">Eraser</span><span class="NormalTextRun SCXW203423038 BCX0"> aprovechando al máximo esta capacidad, la compañía se prepara para expandirse a nuevas aplicaciones. Se espera que la evolución constante de Galaxy AI ofrezca funciones aún más prácticas e intuitivas para los consumidores.</span></span><span class="EOP SCXW203423038 BCX0" data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p>&nbsp;</p>
<h6><em><strong><span class="TextRun BlobObject DragDrop SCXW36389317 BCX0" data-contrast="auto"><span class="Superscript SCXW36389317 BCX0" data-fontsize="10">[1]</span></span><span class="TextRun SCXW36389317 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW36389317 BCX0" data-ccp-parastyle="footnote text"> </span><span class="NormalTextRun SCXW36389317 BCX0" data-ccp-parastyle="footnote text">Los resultados pueden var</span><span class="NormalTextRun SCXW36389317 BCX0" data-ccp-parastyle="footnote text">ia</span><span class="NormalTextRun SCXW36389317 BCX0" data-ccp-parastyle="footnote text">r según el video, dependiendo de cómo se presenten los sonidos en el mismo. Se requiere inicio de sesión en una cuenta Samsung. Se pueden detectar ciertos tipos de sonido, como voces, música, viento, naturaleza, multitudes y ruido. La detección real de sonidos puede var</span><span class="NormalTextRun SCXW36389317 BCX0" data-ccp-parastyle="footnote text">ia</span><span class="NormalTextRun SCXW36389317 BCX0" data-ccp-parastyle="footnote text">r según la fuente de audio y las condiciones del video. </span></span><span class="TextRun SCXW36389317 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW36389317 BCX0" data-ccp-parastyle="footnote text">No se </span><span class="NormalTextRun SpellingErrorV2Themed SCXW36389317 BCX0" data-ccp-parastyle="footnote text">garantiza</span><span class="NormalTextRun SCXW36389317 BCX0" data-ccp-parastyle="footnote text"> </span><span class="NormalTextRun SpellingErrorV2Themed SCXW36389317 BCX0" data-ccp-parastyle="footnote text">la</span><span class="NormalTextRun SCXW36389317 BCX0" data-ccp-parastyle="footnote text"> </span><span class="NormalTextRun SpellingErrorV2Themed SCXW36389317 BCX0" data-ccp-parastyle="footnote text">precisión</span><span class="NormalTextRun SCXW36389317 BCX0" data-ccp-parastyle="footnote text"> de </span><span class="NormalTextRun SpellingErrorV2Themed SCXW36389317 BCX0" data-ccp-parastyle="footnote text">los</span><span class="NormalTextRun SCXW36389317 BCX0" data-ccp-parastyle="footnote text"> resultados.</span></span><span class="EOP SCXW36389317 BCX0" data-ccp-props="{}"> </span></strong></em></h6>
]]></content:encoded>
																				</item>
					<item>
				<title>Samsung desarrolla una metalente acromática revolucionaria en colaboración con POSTECH</title>
				<link>https://news.samsung.com/mx/samsung-desarrolla-una-metalente-acromatica-revolucionaria-en-colaboracion-con-postech?utm_source=rss&amp;utm_medium=direct</link>
				<pubDate>Tue, 25 Feb 2025 11:20:25 +0000</pubDate>
						<category><![CDATA[Tecnología e Innovación]]></category>
		<category><![CDATA[Metalente]]></category>
		<category><![CDATA[Nature Materials]]></category>
		<category><![CDATA[Samsung Research]]></category>
		<category><![CDATA[Universidad de Ciencia y Tecnología de Pohang]]></category>
		<category><![CDATA[XR]]></category>
                <guid isPermaLink="false">https://bit.ly/4beuPtW</guid>
									<description><![CDATA[Samsung Electronics anunció hoy la publicación de un artículo de investigación en colaboración con la Universidad de Ciencia y Tecnología de Pohang]]></description>
																<content:encoded><![CDATA[<p><span data-contrast="auto">Samsung Electronics anunció hoy la publicación de un <a href="https://www.nature.com/articles/s41563-025-02121-0" target="_blank" rel="noopener">artículo de investigación</a> en colaboración con la Universidad de Ciencia y Tecnología de Pohang (POSTECH), en el que se detalla el desarrollo de una innovadora metalente acromática. El estudio fue publicado en la reconocida revista académica </span><i><span data-contrast="auto">Nature Materials</span></i><span data-contrast="auto">. </span><span data-ccp-props="{&quot;134233117&quot;:true,&quot;134233118&quot;:true,&quot;134245417&quot;:true,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p><span data-ccp-props="{&quot;134233117&quot;:true,&quot;134233118&quot;:true,&quot;134245417&quot;:true,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p><span data-contrast="auto">El artículo, titulado </span><i><span data-contrast="auto">“Roll-to-plate printable RGB-achromatic metalens for wide-field-of-view holographic near-eye displays”</span></i><span data-contrast="auto"> (Metalente acromática RGB imprimible mediante rollo a placa para pantallas holográficas de campo de visión amplio en dispositivos de visualización cercana), presenta los hallazgos del equipo de investigación conjunto de Samsung y POSTECH. En este estudio, los investigadores desarrollaron una metalente acromática libre de distorsiones de color y la integraron con pantallas holográficas para corregir diversas aberraciones ópticas. Esta innovación allana el camino para el desarrollo de dispositivos holográficos XR compactos y de alta calidad, además de ofrecer nuevas aplicaciones en cámaras y sensores. </span><span data-ccp-props="{&quot;134233117&quot;:true,&quot;134233118&quot;:true,&quot;134245417&quot;:true,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p><span data-ccp-props="{&quot;134233117&quot;:true,&quot;134233118&quot;:true,&quot;134245417&quot;:true,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p><span data-contrast="auto">El estudio fue dirigido por el Dr. Seokil Moon de Samsung Research y el profesor Junsuk Rho de POSTECH, con la colaboración de los investigadores Minseok Choi, Joohoon Kim y Kilsoo Shin de POSTECH, quienes también figuran como coautores del artículo.</span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p>&nbsp;</p>
<h3><b><span data-contrast="auto">Superando las limitaciones convencionales de aberración cromática para lograr una metalente acromática compacta</span></b><span data-ccp-props="{&quot;134233117&quot;:true,&quot;134233118&quot;:true,&quot;134245417&quot;:true,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></h3>
<p><span data-contrast="auto">Una metalente es una lente plana compuesta por estructuras a nanoescala capaces de controlar la difracción de la luz, lo que permite reducir drásticamente su tamaño y grosor en comparación con las lentes ópticas [</span><span data-contrast="auto">1]</span><span data-contrast="auto"> convexas tradicionales. Por esta razón, se ha posicionado como un componente óptico de próxima generación para aplicaciones en pantallas y cámaras, impulsando más de una década de investigaciones. </span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p>&nbsp;</p>
<p><span data-contrast="auto">A pesar de sus ventajas, el desarrollo de productos basados en metalentes ha enfrentado desafíos técnicos, especialmente la aberración cromática [</span><span data-contrast="auto">2]</span><span data-contrast="auto"> severa, que genera distorsión en las imágenes. </span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p>&nbsp;</p>
<p><span data-contrast="auto">Los intentos previos para eliminar la aberración cromática en metalentes se centraban en diseñar estructuras metaindividuales de forma independiente y luego ensamblarlas sobre un sustrato. Sin embargo, este enfoque no consideraba las interacciones entre las estructuras durante la fase de diseño, lo que impedía corregir por completo la aberración cromática en la lente final.</span></p>
<p><span data-contrast="auto"> </span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p><span data-contrast="auto">El equipo de investigación superó este desafío al redefinir el enfoque convencional de diseño de metalentes. En lugar de tratar las metaestructuras de forma independiente, analizaron de manera simultánea sus interrelaciones durante la fase de diseño, lo que permitió eliminar por completo la aberración cromática tras la fabricación. </span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p>&nbsp;</p>
<p><span data-contrast="auto">Además de corregir esta distorsión, la metalente acromática desarrollada logra una distancia focal más corta, lo que reduce significativamente el tamaño y el peso de la lente [</span><span data-contrast="auto">3]</span><span data-contrast="auto">. </span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p>&nbsp;</p>
<h3><b><span data-contrast="auto">Mayor resolución y menor fatiga ocular con una única lente</span></b><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;134245417&quot;:true,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559738&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></h3>
<p><span data-contrast="auto">Las metalentes suelen presentar diversas aberraciones ópticas además de la aberración cromática, y la distorsión de imagen tiende a intensificarse conforme aumenta el tamaño de la pantalla. Tradicionalmente, estos problemas se solucionaban mediante la combinación de múltiples lentes. No obstante, el equipo de investigación ha logrado corregir varias aberraciones ópticas al integrar una única metalente acromática con una pantalla holográfica, lo que permite obtener un amplio campo de visión e imágenes de alta calidad sin distorsión.</span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p>&nbsp;</p>
<p><span data-contrast="auto">Asimismo, las validaciones técnicas han demostrado que reemplazar las lentes ópticas convencionales y las pantallas tradicionales por metalentes acromáticas y pantallas holográficas permite generar imágenes virtuales más compactas y ligeras, además de reducir la fatiga ocular [</span><span data-contrast="auto">4]</span><span data-contrast="auto">. </span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p>&nbsp;</p>
<p><span data-contrast="auto">Se espera que los hallazgos de este estudio se apliquen en dispositivos de medios inmersivos con capacidades de realidad extendida (XR). Además, esta tecnología promete mejorar el rendimiento y reducir el tamaño de diversos sistemas ópticos, como pantallas, cámaras y sensores. </span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p>&nbsp;</p>
<p><span data-contrast="auto">Gracias a esta colaboración entre la industria y la academia, Samsung ha validado todo el proceso, desde la conceptualización de ideas innovadoras hasta su implementación. Este logro confirma el potencial de la tecnología para impulsar el desarrollo de sistemas ópticos avanzados y garantizar la evolución de las tecnologías de visualización de próxima generación. </span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p>&nbsp;</p>
<p><span data-contrast="auto">Samsung reafirma su compromiso con la investigación y el desarrollo de tecnologías innovadoras que definirán el futuro. A través de colaboraciones continuas con instituciones académicas e iniciativas líderes en la industria. </span></p>
<p>&nbsp;</p>
<h6><strong><em><span class="TextRun BlobObject DragDrop SCXW223755665 BCX0" data-contrast="auto"><span class="Superscript SCXW223755665 BCX0" data-fontsize="10">[1] </span></span><span class="TextRun SCXW223755665 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW223755665 BCX0">Una lente convexa suele tener un grosor de varios milímetros, a veces superando un centímetro, mientras que las </span><span class="NormalTextRun SpellingErrorV2Themed SCXW223755665 BCX0">metalentes</span><span class="NormalTextRun SCXW223755665 BCX0"> son mucho más delgadas, generalmente de menos de 0,5 </span><span class="NormalTextRun SpellingErrorV2Themed SCXW223755665 BCX0">mm.</span></span><span class="EOP SCXW223755665 BCX0" data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:200,&quot;335559740&quot;:276}"> </span></em></strong></h6>
<h6><strong><em><span class="TextRun BlobObject DragDrop SCXW87695275 BCX0" data-contrast="auto"><span class="Superscript SCXW87695275 BCX0" data-fontsize="8">[2]</span></span><span class="TextRun SCXW87695275 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW87695275 BCX0" data-ccp-parastyle="footnote text"> </span><span class="NormalTextRun SCXW87695275 BCX0" data-ccp-parastyle="footnote text">La aberración cromática, también conocida como dispersión de color, ocurre cuando una lente no logra enfocar todos los colores en el mismo punto, generando bordes coloreados en los objetos de las fotografías.</span></span><span class="EOP SCXW87695275 BCX0" data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></em></strong></h6>
<h6><strong><em><span class="TextRun BlobObject DragDrop SCXW82912078 BCX0" data-contrast="auto"><span class="Superscript SCXW82912078 BCX0" data-fontsize="10">[3]</span></span><span class="TextRun SCXW82912078 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW82912078 BCX0" data-ccp-parastyle="footnote text"> </span></span><span class="TextRun SCXW82912078 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW82912078 BCX0" data-ccp-parastyle="footnote text">En comparación con las </span><span class="NormalTextRun SpellingErrorV2Themed SCXW82912078 BCX0" data-ccp-parastyle="footnote text">metalentes</span><span class="NormalTextRun SCXW82912078 BCX0" data-ccp-parastyle="footnote text"> acromáticas propuestas anteriormente, esta investigación ha fabricado </span><span class="NormalTextRun SpellingErrorV2Themed SCXW82912078 BCX0" data-ccp-parastyle="footnote text">metalentes</span><span class="NormalTextRun SCXW82912078 BCX0" data-ccp-parastyle="footnote text"> de un tamaño entre 3 y 5 veces mayor, manteniendo la misma capacidad de enfoque (apertura numérica).</span></span><span class="EOP SCXW82912078 BCX0" data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></em></strong></h6>
<h6><strong><em><span class="TextRun BlobObject DragDrop SCXW188157555 BCX0" data-contrast="auto"><span class="Superscript SCXW188157555 BCX0" data-fontsize="10">[4]</span></span><span class="TextRun SCXW188157555 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW188157555 BCX0" data-ccp-parastyle="footnote text"> </span></span><span class="TextRun SCXW188157555 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW188157555 BCX0" data-ccp-parastyle="footnote text">La calidad de la imagen se ha mejorado en un 13% tras corregir las aberraciones mediante la pantalla holográfica. </span><span class="NormalTextRun SCXW188157555 BCX0" data-ccp-parastyle="footnote text">La calidad de la imagen se mide utilizando la relación señal-ruido de pico (PSNR</span></span><span class="TextRun Highlight SCXW188157555 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW188157555 BCX0" data-ccp-parastyle="footnote text">), un método ampliamente utilizado en el procesamiento de imágenes y señales.</span></span><span class="EOP SCXW188157555 BCX0" data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></em></strong></h6>
]]></content:encoded>
																				</item>
					<item>
				<title>Eclipsa Audio: marcando el comienzo de una nueva generación de sonido 3D con Samsung</title>
				<link>https://news.samsung.com/mx/eclipsa-audio-marcando-el-comienzo-de-una-nueva-generacion-de-sonido-3d-con-samsung?utm_source=rss&amp;utm_medium=direct</link>
				<pubDate>Mon, 24 Feb 2025 10:46:36 +0000</pubDate>
						<category><![CDATA[Tecnología e Innovación]]></category>
		<category><![CDATA[TV & Audio]]></category>
		<category><![CDATA[3D Audio]]></category>
		<category><![CDATA[Eclipsa Audio]]></category>
		<category><![CDATA[IAMF]]></category>
		<category><![CDATA[Neo QLED]]></category>
		<category><![CDATA[Open Source]]></category>
		<category><![CDATA[Samsung Research]]></category>
		<category><![CDATA[Samsung TVs]]></category>
                <guid isPermaLink="false">https://bit.ly/439EVu8</guid>
									<description><![CDATA[En el contenido en video, el audio es tan crucial como la imagen, ya que refuerza la inmersión y conecta a los espectadores con la escena. Para llevar la]]></description>
																<content:encoded><![CDATA[<p><span data-contrast="auto">En el contenido en video, el audio es tan crucial como la imagen, ya que refuerza la inmersión y conecta a los espectadores con la escena. Para llevar la experiencia sonora a otro nivel, Samsung Electronics se unió a Google para desarrollar Eclipsa Audio, una innovadora tecnología de audio 3D que se presentó oficialmente el mes pasado en las<a href="https://www.samsung.com/mx/tvs/?cid=mx_ow_affiliate_newsroom_tv_sustain_none_article_none_none" target="_blank" rel="noopener"> pantallas Samsung</a> durante el Consumer Electronics Show (CES) 2025 en Las Vegas. </span><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340}"> </span></p>
<p><span data-contrast="auto">Samsung Newsroom analizó la tecnología detrás de Eclipsa Audio y su capacidad para ofrecer un audio espacial 3D realista.</span><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340}"> </span></p>
<p>&nbsp;</p>
<p><img class="alignnone size-full wp-image-35543" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2025/02/Samsung-Corporate-Technology-Eclipsa-Audio-Google-3D-audio_main1.jpg" alt="" width="1000" height="330" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2025/02/Samsung-Corporate-Technology-Eclipsa-Audio-Google-3D-audio_main1.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2025/02/Samsung-Corporate-Technology-Eclipsa-Audio-Google-3D-audio_main1-768x253.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<h3><b><span data-contrast="auto">Desarrollo de tecnología de audio espacial 3D</span></b><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340,&quot;469777462&quot;:[2604],&quot;469777927&quot;:[0],&quot;469777928&quot;:[1]}"> </span><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340,&quot;469777462&quot;:[2604],&quot;469777927&quot;:[0],&quot;469777928&quot;:[1]}"> </span></h3>
<p><span data-contrast="auto">En 2023, la Alliance for Open Media (AOM), un consorcio global que reúne a Samsung, Google, Netflix, Meta y otras empresas líderes, adoptó oficialmente el Immersive Audio Model and Formats (IAMF) como estándar de la industria para el audio 3D. Este innovador formato, desarrollado por Samsung y Google, ahora está disponible para los creadores de contenido bajo la marca Eclipsa Audio. </span><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340,&quot;469777462&quot;:[2604],&quot;469777927&quot;:[0],&quot;469777928&quot;:[1]}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340,&quot;469777462&quot;:[2604],&quot;469777927&quot;:[0],&quot;469777928&quot;:[1]}"> </span></p>
<p><span data-contrast="auto">Eclipsa Audio establece un protocolo común entre distintos tipos de contenido multimedia y los dispositivos de reproducción. Este formato optimiza el posicionamiento del audio, la intensidad, las reflexiones espaciales y otros elementos sonoros para adaptarse a diferentes entornos de salida, como cines, sistemas de cine en casa, consolas de juegos y dispositivos móviles, lo que permite una experiencia auditiva más inmersiva.</span><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340,&quot;469777462&quot;:[2604],&quot;469777927&quot;:[0],&quot;469777928&quot;:[1]}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340,&quot;469777462&quot;:[2604],&quot;469777927&quot;:[0],&quot;469777928&quot;:[1]}"> </span></p>
<p><span data-contrast="auto">Según el dispositivo de salida, la tecnología reproduce el sonido desde múltiples direcciones—delante, atrás, izquierda, derecha, arriba y abajo, para generar una sensación de profundidad espacial y presencia dentro de la escena. En el video de un concierto, por ejemplo, Eclipsa Audio resalta cada detalle de la actuación del artista y, al mismo tiempo, captura la energía del público, lo que permite al espectador sentirse como si estuviera físicamente allí.</span><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340,&quot;469777462&quot;:[2604],&quot;469777927&quot;:[0],&quot;469777928&quot;:[1]}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340,&quot;469777462&quot;:[2604],&quot;469777927&quot;:[0],&quot;469777928&quot;:[1]}"> </span></p>
<h3><b><span data-contrast="auto">Diseñado para un audio 3D óptimo en la vida cotidiana</span></b><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340,&quot;469777462&quot;:[2604],&quot;469777927&quot;:[0],&quot;469777928&quot;:[1]}"> </span></h3>
<p><span data-contrast="auto">Entre las diversas tecnologías que mejoran el sonido 3D, como el sonido envolvente, el audio inmersivo y el audio espacial, Eclipsa Audio se diseñó específicamente para ofrecer una experiencia de audio 3D optimizada para el día a día.</span><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340}"> </span></p>
<p><span data-contrast="auto">Tradicionalmente, el contenido de audio en 3D se crea bajo el supuesto de que se reproducirá en entornos con múltiples altavoces envolventes. Sin embargo, la mayoría de las configuraciones de entretenimiento en el hogar incluyen solo un televisor y una soundbar, lo que dificulta replicar con precisión los efectos de audio espacial previstos por el creador del contenido. Eclipsa Audio supera esta limitación al analizar automáticamente los elementos sonoros en cada segmento de una película, desde diálogos susurrados hasta el rugido de aviones de combate en el fondo y ajustar el efecto de audio 3D de forma dinámica según el entorno del espectador.</span><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:340}"> </span></p>
<p><span data-ccp-props="{&quot;335559739&quot;:0}"> </span></p>
<h3><b><span data-contrast="auto">Construyendo un ecosistema de audio 3D con tecnología de código abierto</span></b><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:380}"> </span></h3>
<p><span data-contrast="auto">El marco de código abierto de Eclipsa Audio lo distingue de otras tecnologías de audio 3D, ya que permite a cualquiera crear contenido de audio 3D sin pagar royalties. Tras su debut en el CES 2025, la tecnología recibió un gran entusiasmo por parte de los creadores de contenido y ganó impulso en plataformas de medios y comunidades en línea.</span><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:380}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:380}"> </span></p>
<p><span data-contrast="auto">De esta manera, Eclipsa Audio actúa como un vehículo abierto en el que los creadores de contenido pueden integrar elementos de audio 3D desde todas las direcciones, sin restricciones. Al democratizar el audio espacial, Eclipsa Audio empodera a los creadores y garantiza que los consumidores experimenten el sonido tal como lo desean, sin importar su configuración de audio.</span><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:380}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:320}"> </span></p>
<h3><b><span data-contrast="auto">Eclipsa Audio en Smart TVs Samsung</span></b><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:380}"> </span><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:380}"> </span></h3>
<p><span data-contrast="auto">El sonido 3D inmersivo de Eclipsa Audio alcanza su máximo rendimiento cuando se combina con un hardware excepcional. Para hacer realidad este rendimiento, Samsung y Google han trabajado incansablemente para ofrecer contenido de audio 3D compatible con Eclipsa Audio, que estará disponible próximamente a través de la aplicación de YouTube en las pantallas más recientes de Samsung. Eclipsa Audio se implementará en toda la línea de Smart TVs 2025 de la compañía, desde la serie Crystal UHD hasta los modelos insignia premium Neo QLED 8K [</span><span data-contrast="auto">1]</span><span data-contrast="auto">.  </span><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:380}"> </span></p>
<p><span data-ccp-props="{&quot;335559739&quot;:0}"> </span></p>
<p><span data-contrast="auto">La mayoría de las pantallas Samsung cuentan con altavoces estéreo ubicados en la parte inferior de la pantalla, y en los modelos QLED 4K y superiores, se añaden altavoces adicionales en la parte superior. Sin embargo, los modelos insignia ofrecen beneficios adicionales. Además de los altavoces envolventes ubicados en la parte trasera de los laterales, los altavoces superiores están diseñados específicamente para mejorar la percepción de altura. Eclipsa Audio refleja el sonido en el techo con estos altavoces especiales, ya que crea un efecto que permite a los espectadores experimentar un audio direccional hacia arriba, como si un objeto volara por encima. Combinar el televisor con una soundbar potencia aún más la experiencia, produciendo un audio espacial 3D más rico y expansivo.</span><span data-ccp-props="{&quot;335559739&quot;:0}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:320}"> </span></p>
<p><span data-contrast="auto">Eclipsa Audio ha establecido las bases para un ecosistema de contenido de audio 3D al reunir a los líderes de la industria, desde fabricantes de dispositivos hasta plataformas de contenido, bajo un estándar unificado. En una era donde los servicios de </span><i><span data-contrast="auto">streaming</span></i><span data-contrast="auto"> difuminan la línea entre la creación y el consumo de contenido, Eclipsa Audio abre nuevas posibilidades de sonido inmersivo que Samsung está comprometida a expandir aún más.</span><span data-ccp-props="{&quot;201341983&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:320}"> </span></p>
<p><span data-ccp-props="{&quot;335559739&quot;:0}"> </span></p>
<h6><em><strong><span class="TextRun BlobObject DragDrop SCXW44256970 BCX0" data-contrast="auto"><span class="Superscript SCXW44256970 BCX0" data-fontsize="8">[1] </span></span><span class="TextRun SCXW44256970 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW44256970 BCX0" data-ccp-parastyle="footnote text"> Las fechas de</span></span><span class="TextRun Highlight SCXW44256970 BCX0" data-contrast="none"><span class="NormalTextRun SCXW44256970 BCX0" data-ccp-parastyle="footnote text"> implementación y los detalles del servicio pueden variar según el modelo de TV.</span></span><span class="EOP SCXW44256970 BCX0" data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335559740&quot;:259}"> </span></strong></em></h6>
]]></content:encoded>
																				</item>
					<item>
				<title>Samsung Electronics prueba tecnologías AI-RAN, abriendo el camino para la convergencia de las telecomunicaciones y la AI</title>
				<link>https://news.samsung.com/mx/samsung-electronics-prueba-tecnologias-ai-ran-abriendo-el-camino-para-la-convergencia-de-las-telecomunicaciones-y-la-ai?utm_source=rss&amp;utm_medium=direct</link>
				<pubDate>Thu, 02 Jan 2025 16:16:18 +0000</pubDate>
						<category><![CDATA[Tecnología e Innovación]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI-RAN]]></category>
		<category><![CDATA[Samsung Research]]></category>
		<category><![CDATA[Telecommunications Technology]]></category>
                <guid isPermaLink="false">https://bit.ly/41XZt8f</guid>
									<description><![CDATA[&#160; El mercado futuro de las telecomunicaciones pone un énfasis creciente en la sostenibilidad, priorizando no solo la mejora de la experiencia del usuario]]></description>
																<content:encoded><![CDATA[<p><img class="alignnone size-full wp-image-34451" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2025/01/Samsung-Technology-AI-RAN-Technologies-Telecommunications_Thumb1000.jpg" alt="" width="1000" height="563" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2025/01/Samsung-Technology-AI-RAN-Technologies-Telecommunications_Thumb1000.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2025/01/Samsung-Technology-AI-RAN-Technologies-Telecommunications_Thumb1000-728x410.jpg 728w, https://img.global.news.samsung.com/mx/wp-content/uploads/2025/01/Samsung-Technology-AI-RAN-Technologies-Telecommunications_Thumb1000-768x432.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<p><span data-contrast="auto">El mercado futuro de las telecomunicaciones pone un énfasis creciente en la sostenibilidad, priorizando no solo la mejora de la experiencia del usuario y la eficiencia energética, sino también el aumento de las velocidades de transmisión de datos. En este contexto, las tecnologías que integran comunicación e inteligencia artificial (AI) están ganando cada vez más atención. </span><span data-ccp-props="{}"> </span></p>
<p><span data-ccp-props="{}"> </span></p>
<p><span data-contrast="auto">Samsung Electronics está acelerando los preparativos para las comunicaciones del futuro al integrar tecnología de AI en toda la Red de Acceso Radio (RAN, por sus siglas en inglés), desde unidades de radio (responsables de la conversión entre señales analógicas y digitales en estaciones base, antenas, etc.) y unidades digitales (que incluyen módems para la modulación y demodulación de señales digitales, planificadores de recursos, etc.) hasta la operación del sistema, avanzando así en la convergencia de las telecomunicaciones con tecnologías de AI.</span><span data-ccp-props="{}"> </span></p>
<p><span data-ccp-props="{}"> </span></p>
<p><span data-contrast="auto">En las redes de comunicación móvil, la RAN, que conecta los teléfonos móviles con la red central, es un componente crítico que determina la experiencia del usuario en términos de velocidad de transmisión y calidad de la comunicación. Como la RAN representa la mayor parte del consumo energético de toda la red de comunicación, incluida la red central y los centros de datos, la necesidad de tecnología de ahorro de energía es alta.</span><span data-ccp-props="{}"> </span></p>
<p><span data-ccp-props="{}"> </span></p>
<p><span data-contrast="auto">Samsung está actualmente investigando tecnologías AI-RAN, que integran AI en la RAN. En particular, en el </span><a href="https://bit.ly/4efo0s6" target="_blank" rel="noopener"><span data-contrast="none">Silicon Valley Future Wireless Summit</span></a><span data-contrast="auto">, celebrado en noviembre pasado, se demostraron tecnologías AI-RAN en colaboración con socios de la industria, demostrando capacidades para mejorar la velocidad de transmisión de datos de las estaciones base (es decir, la cantidad de datos transmitidos exitosamente por una estación base durante un período determinado), la cobertura de comunicación (es decir, el rango geográfico donde están disponibles los servicios de comunicación proporcionados por una estación base) y la eficiencia energética, entre otros.</span><span data-ccp-props="{}"> </span></p>
<p><span data-ccp-props="{}"> </span></p>
<p><span data-contrast="auto">Un ejemplo es el uso de tecnología de AI para mejorar el rendimiento de la estimación de canales inalámbricos, que determina el estado de las señales entre estaciones base y teléfonos móviles. El resultado mostró que la velocidad de transmisión de datos en el enlace descendente desde la estación base al teléfono móvil y en el enlace ascendente desde el teléfono móvil a la estación base se mejoró significativamente en comparación con la RAN 5G.</span><span data-ccp-props="{}"> </span></p>
<p><span data-ccp-props="{}"> </span></p>
<p><span data-contrast="auto">Además, se demostró que la eficiencia energética aumentó al aplicar energía de manera adaptativa según la intensidad de las señales transmitidas.</span><span data-ccp-props="{}"> </span></p>
<p><span data-ccp-props="{}"> </span></p>
<p><span data-contrast="auto">Estas demostraciones pioneras en la industria, presentadas a los operadores de telecomunicaciones con resultados de pruebas de concepto, Proof of Concept (PoC), aplicando AI en toda la RAN, han identificado el potencial de la AI para mejorar significativamente el rendimiento de la comunicación, la experiencia del usuario y la eficiencia energética en las futuras redes de comunicación.</span><span data-ccp-props="{}"> </span></p>
<p>&nbsp;</p>
<p><i><span data-contrast="auto">“Agradecemos a nuestros socios por colaborar en estas innovadoras tecnologías inalámbricas basadas en AI”</span></i><span data-contrast="auto">, dijo </span><span data-contrast="auto">Charlie Zhang, Vicepresidente Senior de Samsung Research America y Head del equipo de Investigación 6G en Samsung Research</span> <i><span data-contrast="auto">“Samsung Electronics continuará trabajando con nuestros socios del ecosistema para liderar la innovación que hará realidad la AI-RAN en los próximos años”</span></i><span data-contrast="auto">.</span><span data-ccp-props="{}"> </span></p>
<p><span data-ccp-props="{}"> </span></p>
<p><span data-contrast="auto">Los líderes de los principales operadores inalámbricos globales quedaron muy satisfechos con los prometedores resultados de la integración de la última tecnología de AI n el diseño de las futuras RAN y apreciaron los esfuerzos de Samsung en liderar los esfuerzos de la industria en la tecnología inalámbrica nativa de AI.</span><span data-ccp-props="{}"> </span></p>
<p>&nbsp;</p>
<p><i><span data-contrast="auto">“Quedamos impresionados con los resultados de Samsung Research y valoramos los conocimientos de nuestros socios proveedores y operadores globales”</span></i><span data-contrast="auto">, comentó </span><span data-contrast="auto">Steven Rice, Vicepresidente de Planificación de Redes en Verizon Wireless</span><span data-contrast="auto">. </span><i><span data-contrast="auto">“Mejorar constantemente el rendimiento de la red para mejorar la experiencia de nuestros clientes es nuestra prioridad. Mostrar investigaciones a través de demostraciones como esta es importante para impulsar la industria hacia adelante”</span></i><span data-contrast="auto">. </span><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p><i><span data-contrast="auto">“Las demostraciones de Samsung destacaron el significativo potencial de la AI para la RAN”</span></i><span data-contrast="auto">, mencionó </span><span data-contrast="auto">Satoshi Konishi, Vicepresidente Ejecutivo y Head de los Laboratorios de Investigación de Tecnología Avanzada en KDDI Research,</span><span data-contrast="auto"> Inc. “</span><i><span data-contrast="auto">Esperamos avanzar aún más en la integración de la comunicación y la AI juntas”</span></i><span data-contrast="auto">. </span><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p><i><span data-contrast="auto">“Fue un gran honor participar en el evento de Samsung”</span></i><span data-contrast="auto">, </span><span data-contrast="auto">destacó Takehiro Nakamura, Chief Standarization Officer en NTT DoCoMo</span><span data-contrast="auto">. </span><i><span data-contrast="auto">“Fue muy impresionante ver cómo las demostraciones de AI-RAN producen avances significativos sobre las soluciones existentes. Creo que las avanzadas tecnologías A-RAN de Samsung pueden promover el despliegue comercial temprano de AI-RAN en la red 5G y ayudar a iniciar las discusiones sobre AI-RAN en preparación para el 6G”</span></i><span data-contrast="auto">. </span><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p><i><span data-contrast="auto">“Aprovechando la tecnología de AI de Samsung, anticipamos una mejora sustancial en el presupuesto de enlace ascendente y una mayor estabilidad en la comunicación tanto para el enlace descendente como para el ascendente”</span></i><span data-contrast="auto">, explicó</span><span data-contrast="auto"> Ryuji Wakikawa, Vicepresidente y Head del Instituto de Investigación de Tecnología Avanzada en SoftBank Corp.</span><span data-contrast="auto"> “</span><i><span data-contrast="auto">A medida que miramos al futuro, se espera que este enfoque impulsado por AI evolucione aún más y se convierta en una piedra angular de la tecnología 6G. SoftBank reconoce el papel fundamental de esta tecnología basada en A en la transformación del futuro del panorama de telecomunicaciones y espera con ansias su comercialización”</span></i><span data-contrast="auto">.</span><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p>&nbsp;</p>
<p><span class="TextRun SCXW258420841 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW258420841 BCX0">Además, los líderes de los socios globales de Samsung, que también fueron colaboradores de estas demostraciones, estaban emocionados de ser parte del esfuerzo colectivo para liderar el camino hac</span><span class="NormalTextRun SCXW258420841 BCX0">ia</span><span class="NormalTextRun SCXW258420841 BCX0"> una red de próxima generación nativa de </span><span class="NormalTextRun SCXW258420841 BCX0">AI</span><span class="NormalTextRun SCXW258420841 BCX0">, y compartieron su visión sobre cómo la </span><span class="NormalTextRun SCXW258420841 BCX0">AI</span><span class="NormalTextRun SCXW258420841 BCX0"> </span><span class="NormalTextRun SCXW258420841 BCX0">puede ayudar a moldear el futuro de las comunicaciones inalámbricas.</span></span><span class="EOP SCXW258420841 BCX0" data-ccp-props="{}"> </span></p>
<p>&nbsp;</p>
<p><i><span data-contrast="auto">&#8220;Las redes inalámbricas serán nativas de AI, con la capacidad de aprovechar la AI para las mejoras necesarias en el rendimiento de la RAN y la eficiencia espectral&#8221;</span></i><span data-contrast="auto">, mencionó</span><span data-contrast="auto"> Ronnie Vasishta, Vicepresidente Senior de Telecomunicaciones en NVIDIA</span><span data-contrast="auto">. </span><i><span data-contrast="auto">&#8220;Nuestra profunda colaboración con Samsung y otros socios de investigación alrededor del mundo está demostrando que la infraestructura A-RAN acelerada por la plataforma </span></i><i><span data-contrast="auto">NVIDIA AI Aerial</span></i><i><span data-contrast="auto"> puede traer ganancias significativas en el procesamiento de señales de radio mientras aloja la AI y la RAN juntas en una infraestructura común&#8221;.</span></i><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p><i><span data-contrast="auto">&#8220;Fue un honor trabajar estrechamente con Samsung Research y mostrar el impacto poderoso de la AI en la mejora de la capacidad celular en la futura red&#8221;</span></i><span data-contrast="auto">, dij</span><span data-contrast="auto">o Giampaolo Tardioli, Vicepresidente de Estrategia 6G en Keysight.</span> <i><span data-contrast="auto">&#8220;Las colaboraciones con estos socios de clase mundial son la parte emocionante y necesaria de llevar la AI para enfrentar algunos de nuestros mayores desafíos inalámbricos&#8221;</span></i><span data-contrast="auto">.</span><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p><i><span data-contrast="auto">&#8220;VIAVI se complace en haber apoyado a Samsung con una demostración conjunta de interfaz aérea diseñada con AI, continuando la colaboración estratégica entre líderes de la industria&#8221;</span></i><span data-contrast="auto">, comentó el </span><span data-contrast="auto">Dr. Ian Wong, Director Senior de RF y Arquitectura Inalámbrica en VIAVI. </span><i><span data-contrast="auto">&#8220;</span></i><i><span data-contrast="auto">VIAVI y Samsung están orgullosas de liderar el camino mostrando el tremendo potencial de la A para mejorar significativamente la eficiencia espectral y energética del 6G&#8221;</span></i><span data-contrast="auto">.</span><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p><span data-contrast="auto">Christina Gessner, Vicepresidenta Ejecutiva de la División de Pruebas y Medición de Rohde &amp; Schwarz, explicó:</span> <i><span data-contrast="auto">&#8220;El procesamiento de señales impulsado por el Machine Learning tiene el potencial de llevar el rendimiento inalámbrico más allá de lo posible. Nuestra colaboración con Samsung Research de un receptor neural que utiliza transmisión de constelación no uniforme, aprovechando nuestras avanzadas soluciones de prueba, marca un hito al confirmar el papel de la A en las futuras comunicaciones inalámbricas 6G&#8221;</span></i><span data-contrast="auto">. </span><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p><i><span data-contrast="auto">&#8220;Emerson se complace en trabajar junto a Samsung y la industria para explorar cómo la AI generativa puede transformar las redes 5G y 6G&#8221;</span></i><span data-contrast="auto">, destacó </span><span data-contrast="auto">Ritu Favre, Presidenta del Grupo de Negocios de Pruebas y Medición en Emerson.</span> <i><span data-contrast="auto">&#8220;Nuestro compromiso con la innovación y la colaboración en la industria es un activo en el avance de redes nativas de AI. Juntos, estamos trabajando hacia un futuro más inteligente y sostenible para las comunicaciones globales&#8221;</span></i><span data-contrast="auto">. </span><span data-ccp-props="{&quot;201341983&quot;:2,&quot;335559740&quot;:0}"> </span></p>
<p>&nbsp;</p>
<p><span class="TextRun SCXW82799347 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW82799347 BCX0">Las exitosas demostraciones son ampliamente reconocidas como un prometedor punto de partida para la colaboración de la industria con el fin de llevar la tecnología inalámbrica nativa de </span><span class="NormalTextRun SCXW82799347 BCX0">A</span><span class="NormalTextRun SCXW82799347 BCX0">I</span><span class="NormalTextRun SCXW82799347 BCX0"> </span><span class="NormalTextRun SCXW82799347 BCX0">a</span><span class="NormalTextRun SCXW82799347 BCX0"> las futuras redes de acceso por radio.</span><span class="NormalTextRun SCXW82799347 BCX0"> Samsung planea aprovechar el impulso de la innovación y continuar trabajando con socios en el ecosistema a través de asociaciones industriales como </span></span><a class="Hyperlink SCXW82799347 BCX0" href="https://bit.ly/3PgS11d" target="_blank" rel="noreferrer noopener"><span class="TextRun Underlined SCXW82799347 BCX0" data-contrast="none"><span class="NormalTextRun SCXW82799347 BCX0">AI-RAN Alliance</span></span></a><span class="TextRun SCXW82799347 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW82799347 BCX0">, </span><span class="NormalTextRun SCXW82799347 BCX0">donde Samsung es miembro fundador, para mejorar la experiencia de los usuarios haciendo realidad la promesa de la </span><span class="NormalTextRun SCXW82799347 BCX0">AI</span><span class="NormalTextRun SCXW82799347 BCX0"> en la RAN.</span></span><span class="EOP SCXW82799347 BCX0" data-ccp-props="{}"> </span></p>
]]></content:encoded>
																				</item>
					<item>
				<title>Samsung Electronics presenta el Research Stack de Samsung Health para apoyar a la investigación medica</title>
				<link>https://news.samsung.com/mx/samsung-electronics-presenta-el-research-stack-de-samsung-health-para-apoyar-a-la-investigacion-medica?utm_source=rss&amp;utm_medium=direct</link>
				<pubDate>Thu, 10 Oct 2024 16:34:50 +0000</pubDate>
						<category><![CDATA[Celulares y Accesorios]]></category>
		<category><![CDATA[Tecnología e Innovación]]></category>
		<category><![CDATA[Galaxy Ring]]></category>
		<category><![CDATA[Galaxy Watch Series]]></category>
		<category><![CDATA[Research Stack]]></category>
		<category><![CDATA[Samsung Developer Conference 2024]]></category>
		<category><![CDATA[Samsung HealthSamsung Health SDK Suite]]></category>
		<category><![CDATA[Samsung Research]]></category>
		<category><![CDATA[SDC24]]></category>
                <guid isPermaLink="false">https://bit.ly/4eVtd9d</guid>
									<description><![CDATA[Con el crecimiento acelerado de las industrias de la salud digital y los dispositivos vestibles, la medición y el análisis preciso de los datos adquieren una]]></description>
																<content:encoded><![CDATA[<p><span data-contrast="auto">Con el crecimiento acelerado de las industrias de la salud digital y los dispositivos vestibles, la medición y el análisis preciso de los datos adquieren una relevancia cada vez mayor. En respuesta a esta tendencia, el 27 de septiembre, Samsung Electronics presentó el Samsung Health Research Stack, una plataforma diseñada para fortalecer la investigación en salud digital basada en datos. </span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-contrast="auto">El Research Stack de Samsung Health es un proyecto desarrollado por Samsung Electronics, que apoya la investigación en salud digital a través de dispositivos móviles y vestibles en entornos Android y Wear OS. Esta plataforma proporciona a desarrolladores de TI y a investigadores médicos un entorno de software diseñado para planificar servicios de manera eficiente y segura, utilizando datos relevantes para sus estudios. </span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-contrast="auto">Dado que la investigación clínica necesita aplicaciones y servicios capaces de medir, compartir y analizar de forma continua datos de salud del día a día de los usuarios, Samsung Health Research Stack está diseñado para ayudar a los investigadores a implementar las funciones que necesitan para sus estudios.</span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-contrast="auto">Después de lanzar el Stack Alpha en 2022 y el Stack 1.0 en 2023, Samsung ha presentado su última versión: el Research Stack 2.0 Beta. Este proyecto de acceso libre ha adoptado el nombre de Research Stack de Samsung Health, subrayando su papel en el apoyo al ecosistema de investigación. Además, forma parte del nuevo </span><a href="https://news.samsung.com/mx/el-nuevo-conjunto-de-kits-de-desarrollo-de-software-sdk-suite-para-la-salud-de-samsung-impulsa-avances-en-la-innovacion-del-sector-salud"><span data-contrast="none">SDK Suite de Samsung Health</span></a><span data-contrast="auto">, un conjunto integral de herramientas de desarrollo diseñado para crear soluciones en el ámbito de la salud. </span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-contrast="auto"><img class="alignnone size-full wp-image-33176" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/10/Samsung-Technology-Samsung-Health-Research-Stack-2.0-Beta_main1.jpg" alt="" width="1000" height="563" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/10/Samsung-Technology-Samsung-Health-Research-Stack-2.0-Beta_main1.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/10/Samsung-Technology-Samsung-Health-Research-Stack-2.0-Beta_main1-728x410.jpg 728w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/10/Samsung-Technology-Samsung-Health-Research-Stack-2.0-Beta_main1-768x432.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></span></p>
<p><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<h3>Nuevas funciones ayudan a los investigadores con sus estudios</h3>
<p><span data-contrast="auto">El Research Stack de Samsung Health impulsa una investigación de salud digital más eficaz. Entre sus funciones, se destacan un SDK para facilitar el desarrollo de aplicaciones, un servicio de back-end que gestiona los datos recopilados, y un portal web diseñado para apoyar tanto el diseño de la investigación como el análisis de datos. En respuesta a las sugerencias de los investigadores, la versión más reciente incorpora características aún más convenientes para optimizar el proceso.</span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-contrast="auto">El SDK es una herramienta de desarrollo que facilita la creación de aplicaciones para la salud digital, reduciendo tanto costos como tiempos de desarrollo. Ahora admite el desarrollo de aplicaciones móviles para investigación, así como aplicaciones para smartwatches que aprovechan los datos de sensores vestibles. La compatibilidad mejorada con el SDK de sensores permite a los investigadores diseñar aplicaciones para relojes que registran electrocardiogramas, niveles de oxígeno en sangre y la composición corporal con los avanzados sensores del Galaxy Watch<sup>1</sup></span><span data-contrast="auto">. La integración del nuevo Data SDK permite desarrollar aplicaciones que utilizan datos de sueño del Galaxy Watch o Galaxy Ring.</span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-contrast="auto">Además, se han implementado mejoras en el rendimiento y la usabilidad del servicio back-end y el portal web. La arquitectura del back-end se ha optimizado para manejar grandes volúmenes de datos provenientes de ensayos clínicos, incorporando nuevas funciones para la gestión de estudios. El portal web facilita el proceso de investigación, abarcando desde el reclutamiento de pacientes y la realización de encuestas hasta la gestión del progreso y el análisis de datos.  </span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<h3>Impulsando resultados en todo el mundo con una presentación en SDC24<span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></h3>
<p><span data-contrast="auto">El Research Stack de Samsung Health está disponible para cualquier empresa o institución médica en el espacio de la atención médica digital que desarrolle soluciones que utilicen dispositivos vestibles y biomarcadores.</span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-contrast="auto">La solución se presentará en la Samsung Developer Conference 2024 (SDC24) el 3 de octubre en San José, California. Durante el evento, los desarrolladores tendrán la oportunidad de participar en una sesión de Code Lab, donde podrán experimentar de primera mano las últimas funciones.</span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><i><span data-contrast="auto">“El Research Stack de Samsung Health ya se está utilizando en varios estudios clínicos a nivel nacional e internacional que emplean el Galaxy Watch”</span></i><span data-contrast="auto">, comentó Yunsu Lee, Director del Equipo de Inteligencia de Datos de Samsung Research. </span><i><span data-contrast="auto">“Con nuestra innovadora tecnología versátil, buscamos contribuir a la expansión del ecosistema de salud digital y ser un socio valioso para los profesionales de TI y médicos en su esfuerzo por lograr avances en la investigación”</span></i><span data-contrast="auto">.</span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p><span data-contrast="auto">La última versión de Research Stack de Samsung Health está disponible en el </span><a href="https://developer.samsung.com/health/research"><span data-contrast="none">sitio web de Samsung Developer</span></a><span data-contrast="auto"> y en </span><a href="https://github.com/S-ResearchStack"><span data-contrast="none">GitHub</span></a><span data-contrast="auto">. </span><span data-ccp-props="{&quot;134245417&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559739&quot;:0,&quot;335559740&quot;:276}"> </span></p>
<p>&nbsp;</p>
<h6><strong><em><span class="TextRun SCXW119421239 BCX0" data-contrast="auto"><span class="NormalTextRun SCXW119421239 BCX0" data-ccp-parastyle="footnote text"><sup>1 </sup>Disponible en Galaxy Watch 4 o modelos posteriores equipados con Wear OS. Los datos admitidos pueden variar según el tipo y el modelo del sensor.</span></span></em></strong></h6>
]]></content:encoded>
																				</item>
					<item>
				<title>The Learning Curve, parte 1: por qué la enseñanza de nuevos lenguajes de IA comienza con data</title>
				<link>https://news.samsung.com/mx/the-learning-curve-parte-1-por-que-la-ensenanza-de-nuevos-lenguajes-de-ia-comienza-con-data?utm_source=rss&amp;utm_medium=direct</link>
				<pubDate>Tue, 21 May 2024 18:01:47 +0000</pubDate>
						<category><![CDATA[Celulares y Accesorios]]></category>
		<category><![CDATA[Automatic speech recognition]]></category>
		<category><![CDATA[Galaxy AI]]></category>
		<category><![CDATA[Live Translate]]></category>
		<category><![CDATA[Neural Machine Translation]]></category>
		<category><![CDATA[Samsung R&D Institute Indonesia]]></category>
		<category><![CDATA[Samsung Research]]></category>
		<category><![CDATA[Text-to-speech]]></category>
		<category><![CDATA[The Learning Curve]]></category>
                <guid isPermaLink="false">https://bit.ly/3WTGwkG</guid>
									<description><![CDATA[&#160; A medida que Samsung continúa siendo pionera en experiencias móviles de inteligencia artificial de primera calidad, visitamos los centros de]]></description>
																<content:encoded><![CDATA[<p><img class="alignnone size-full wp-image-30410" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main7.jpg" alt="" width="1000" height="667" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main7.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main7-844x563.jpg 844w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main7-768x512.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<p>A medida que Samsung continúa siendo pionera en experiencias móviles de inteligencia artificial de primera calidad, visitamos los centros de investigación de Samsung en todo el mundo para aprender cómo <a href="https://www.samsung.com/mx/galaxy-ai/?cid=mx_ow_affiliate_newsroom_galaxy-ai_sustain_galaxy-ai_article_none_none" target="_blank" rel="noopener">Galaxy AI</a> está permitiendo que más usuarios maximicen su potencial. Ahora, Galaxy AI es compatible con 16 idiomas, permitiendo que más personas puedan expandir sus capacidades lingüísticas, incluso sin conexión, gracias a las funciones de traducción en el dispositivo como Live Translate, Interpreter, Note Assist y Browsing Assist. ¿Pero en qué consiste el desarrollo del lenguaje de la IA? Esta serie examina los desafíos de trabajar con IA móvil y cómo los superamos. Para empezar, nos dirigimos a Indonesia para aprender dónde se comienza  a enseñar a la IA a hablar un nuevo idioma.</p>
<p>&nbsp;</p>
<p><img class="alignnone size-full wp-image-30411" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main2.jpg" alt="" width="1000" height="667" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main2.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main2-844x563.jpg 844w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main2-768x512.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<p>Según el equipo de Samsung R&amp;D Institute Indonesia (SRIN), el primer paso es establecer objetivos, &#8220;<em>Una gran IA comienza con datos de buena calidad y relevantes. Cada idioma exige una manera diferente de procesar esto, por lo que nos adentramos a comprender las necesidades lingüísticas y las condiciones únicas de nuestro país</em>&#8220;, dice Junaidillah Fadlil, Head de IA en SRIN, cuyo equipo recientemente agregó soporte para Bahasa Indonesia (idioma indonesio) a Galaxy AI. &#8220;<em>El desarrollo de idiomas locales debe estar liderado por datos y la ciencia, por lo que cada proceso para agregar idiomas a Galaxy AI comienza con nosotros planificando qué información necesitamos y podemos obtener legal y éticamente</em>&#8220;.</p>
<p>&nbsp;</p>
<p>Las características de Galaxy AI, como Live Translate, realizan tres procesos principales: reconocimiento automático de voz (ASR, por su sigla en inglés), traducción automática neuronal (NMT, su sigla en inglés) y texto a voz (TTS, su sigla en inglés). Cada proceso necesita un conjunto distinto de información.</p>
<p>&nbsp;</p>
<p><img class="alignnone size-full wp-image-30414" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main3.jpg" alt="" width="1000" height="667" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main3.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main3-844x563.jpg 844w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main3-768x512.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<p>ASR, por ejemplo, necesita grabaciones extensas de voz en numerosos entornos, cada una de ellas acompañada de una transcripción precisa del texto. Los diferentes niveles de ruido de fondo ayudan para tener en cuenta los diferentes entornos. &#8220;<em>No basta con añadir ruidos a las grabaciones</em>&#8220;, explica Muchlisin Adi Saputra, Head de ASR del equipo. &#8220;<em>Además de los datos lingüísticos que obtuvimos de los socios autorizados de terceros, debemos salir a cafeterías o entornos de trabajo para grabar nuestras voces. Esto nos permite capturar de forma auténtica sonidos únicos de la vida real, como las voces de la gente o el ruido de los teclados</em>&#8220;.</p>
<p>&nbsp;</p>
<p><img class="alignnone size-full wp-image-30415" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main4.jpg" alt="" width="1000" height="667" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main4.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main4-844x563.jpg 844w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main4-768x512.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<p>También hay que tener en cuenta la naturaleza siempre cambiante de los idiomas. Saputra añade: &#8220;<em>Tenemos que estar al día de el argot más reciente y de cómo se utiliza, ¡y la mayoría de las veces la encontramos en las redes sociales!&#8221;.</em></p>
<p>&nbsp;</p>
<p>A continuación, NMT requiere datos de entrenamiento de traducción. &#8220;<em>Traducir el bahasa indonesio es todo un reto</em>&#8220;, afirma Muhamad Faisal, líder del equipo de NMT. &#8220;<em>Su uso extensivo de significados contextuales e implícitos se basa en señales sociales y situacionales, por lo que necesitamos numerosos textos traducidos a los que la IA pueda hacer referencia para nuevas palabras, palabras extranjeras, nombres propios y modismos, cualquier información que ayude a la IA a comprender el contexto y las reglas de comunicación</em>&#8220;.</p>
<p>&nbsp;</p>
<p><img class="alignnone size-full wp-image-30417" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main8.jpg" alt="" width="1000" height="666" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main8.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main8-845x563.jpg 845w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main8-768x511.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<p>Luego, TTS requiere grabaciones que abarquen una variedad de voces y tonos, con un contexto adicional sobre cómo suenan partes de palabras en diferentes circunstancias. &#8220;<em>Buenas grabaciones de voz podrían hacer la mitad del trabajo y cubrir todos los fonemas requeridos (unidades de sonido en el habla) para el modelo de IA</em>&#8220;, agrega Harits Abdurrohman, líder de TTS. &#8220;<em>Si un actor de voz hizo un gran trabajo en la fase anterior, el enfoque se desplaza hacia el perfeccionamiento del modelo de IA para pronunciar claramente palabras específicas</em>&#8220;.</p>
<p>&nbsp;</p>
<p><img class="alignnone size-full wp-image-30412" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main5.jpg" alt="" width="1000" height="667" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main5.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main5-844x563.jpg 844w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main5-768x512.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<h3><strong>Juntos somos más fuertes</strong></h3>
<p>Se necesitan diversos recursos para planificar tantos datos, y el SRIN trabajó en estrecha colaboración con expertos en lingüística. &#8220;<em>Este desafío requiere creatividad, ingenio y experiencia tanto en Bahasa Indonesia como en aprendizaje automático</em>&#8220;, reflexiona Fadlil. &#8220;<em>La filosofía de colaboración abierta de Samsung jugó un papel importante en lograr que se hiciera el trabajo, al igual que nuestra escala de operaciones y nuestra historia en el desarrollo de IA</em>&#8220;.</p>
<p>&nbsp;</p>
<p>Trabajando con otros centros de investigación de Samsung en todo el mundo, el equipo del SRIN pudo adoptar rápidamente las mejores prácticas y superar las complejidades de establecer objetivos de data. Además, la colaboración fue contribuyó para avanzar no solo en tecnología, también en cultura. Cuando el equipo del SRIN se unió a sus contrapartes en Bangalore, India, observaron las costumbres locales de ayuno, creando conexiones más profundas y expandiendo su comprensión de diferentes culturas.</p>
<p>&nbsp;</p>
<p><img class="alignnone size-full wp-image-30416" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main6.jpg" alt="" width="1000" height="667" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main6.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main6-844x563.jpg 844w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main6-768x512.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<p>Para el equipo, el proyecto de expansión del lenguaje de Galaxy AI adquirió un nuevo significado. &#8220;<em>Estamos especialmente orgullosos de nuestros logros aquí, ya que este fue nuestro primer proyecto de IA, y no será el último mientras continuemos refinando nuestros modelos y mejorando la calidad de los resultados</em>&#8220;, concluye Fadlil. &#8220;<em>Esta expansión no solo refleja nuestros valores de apertura, sino que también respeta e incorpora nuestras identidades culturales a través del lenguaje</em>&#8220;.</p>
<p>&nbsp;</p>
<p><img class="alignnone size-full wp-image-30410" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main7.jpg" alt="" width="1000" height="667" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main7.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main7-844x563.jpg 844w, https://img.global.news.samsung.com/mx/wp-content/uploads/2024/05/Learning-Curve-Part-1_AI_main7-768x512.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<p>En el próximo episodio de The Learning Curve, nos dirigiremos al R&amp;D Institute Jordan para hablar con el equipo que dirigió el proyecto de idioma árabe de Galaxy AI. Conéctate para conocer las complejidades de crear y entrenar un modelo de IA para un idioma con diversos dialectos.</p>
]]></content:encoded>
																				</item>
					<item>
				<title>Juho Lee, Fellow de Samsung Research, es nombrado ganador inaugural del Premio a la Excelencia en Apoyo a la Estandarización de las Comunicacione de IEEE ComSoc</title>
				<link>https://news.samsung.com/mx/juho-lee-fellow-de-samsung-research-es-nombrado-ganador-inaugural-del-premio-a-la-excelencia-en-apoyo-a-la-estandarizacion-de-las-comunicacione-de-ieee-comsoc?utm_source=rss&amp;utm_medium=direct</link>
				<pubDate>Thu, 07 Dec 2023 11:08:53 +0000</pubDate>
						<category><![CDATA[Tecnología e Innovación]]></category>
		<category><![CDATA[6G]]></category>
		<category><![CDATA[IEEE]]></category>
		<category><![CDATA[IEEE Fellow]]></category>
		<category><![CDATA[Samsung Research]]></category>
                <guid isPermaLink="false">https://bit.ly/3Gzk9Yu</guid>
									<description><![CDATA[&#160; Juho Lee, Fellow del hub de I&#38;D avanzado de Samsung Electronics, Samsung Research (SR), recibió un Premio a la Carrera por su destacado liderazgo y]]></description>
																<content:encoded><![CDATA[<div id="attachment_27407" style="width: 1010px" class="wp-caption alignnone"><img class="size-full wp-image-27407" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2023/12/IEEE-Awards_Juho-Lee_main1_F.jpg" alt="Juho Lee, Fellow de Samsung Research, gana el Premio a la Excelencia en el Soporte de la Estandarización de las Comunicaciones de IEEE ComSoc " width="1000" height="800" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2023/12/IEEE-Awards_Juho-Lee_main1_F.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2023/12/IEEE-Awards_Juho-Lee_main1_F-704x563.jpg 704w, https://img.global.news.samsung.com/mx/wp-content/uploads/2023/12/IEEE-Awards_Juho-Lee_main1_F-768x614.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /><p class="wp-caption-text">▲ Juho Lee, Fellow de Samsung Research, ganó el Premio a la Excelencia en el Soporte de la Estandarización de las Comunicaciones de IEEE ComSoc en la conferencia GLOBECOM 2023 el 5 de diciembre.</p></div>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Juho Lee, Fellow del </span><i><span style="font-weight: 400;">hub</span></i><span style="font-weight: 400;"> de I&amp;D avanzado de Samsung Electronics, Samsung Research (SR), recibió un Premio a la Carrera por su destacado liderazgo y contribuciones técnicas en la estandarización de las comunicaciones inalámbricas del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), la organización profesional técnica más grande del mundo dedicada al avance de la tecnología en beneficio de la humanidad.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">En reconocimiento a su liderazgo y papel fundamental en el desarrollo y la estandarización de las tecnologías de comunicaciones móviles globales, Lee ganó el premio inaugural a la Excelencia en el Apoyo a la Estandarización de las Comunicaciones, establecido este año por el IEEE Communications Society (ComSoc). Lee fue el único que recibió el premio en honor a sus destacadas contribuciones a la industria.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Los ganadores de los Premios a la Carrera de IEEE ComSoc se seleccionan mediante un riguroso proceso de evaluación, en el que 14 jueces deliberan sobre los candidatos durante dos meses. Los ganadores fueron reconocidos en una ceremonia de premiación el 5 de diciembre en la conferencia IEEE Global Communications (GLOBECOM) 2023 en Kuala Lumpur, Malasia.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Lee ha liderado la investigación y estandarización de la tecnología de comunicación móvil desde 2000, cuando comenzó la comercialización de los smartphones 3G. Desde febrero de 2003 hasta agosto de 2009, Lee se desempeñó como Vice Chair del Grupo de Trabajo 1 de la Red de Acceso por Radio (RAN WG1) en el Proyecto de Asociación de Tercera Generación (3GPP), una organización global de estandarización de las comunicaciones móviles, en la que contribuyó a la estandarización de la tecnología 4G LTE. En 2018, Lee fue elegido </span><span style="font-weight: 400;">Fellow</span><span style="font-weight: 400;"> del IEEE, una distinción reservada para los principales miembros del IEEE que han logrado logros extraordinarios.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">&#8220;</span><i><span style="font-weight: 400;">Es un honor ser nombrado el primer ganador del Premio a la Excelencia en el Apoyo a la Estandarización de las Comunicaciones de IEEE ComSoc</span></i><span style="font-weight: 400;">&#8220;, dijo. &#8220;</span><i><span style="font-weight: 400;">En el futuro, continuaré investigando, desarrollando y estandarizando tecnologías avanzadas de comunicaciones móviles como la tecnología 5G y 6G</span></i><span style="font-weight: 400;">&#8220;.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Lee se une a las prestigiosas filas de ejecutivos de Samsung que también han recibido los Premios a la Carrera de IEEE ComSoc. El ex Vice Chairman de Samsung, Ki-Tae Lee, quien desempeñó un papel decisivo en el desarrollo de la serie de teléfonos móviles Anycall de Samsung, recibió el premio al Líder Distinguido de la Industria de IEEE ComSoc en 2004. El ex Vice Chairman de Samsung, Jong-Kyun Shin, que desarrolló el primer teléfono a color, recibió el mismo premio en 2016.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Samsung Research, líder en estandarización de tecnologías de comunicaciones móviles, cuenta con un total de seis funcionarios en el 3GPP: dos Chairs y cuatro Vice Chairs. En julio de 2020, Samsung publicó “La próxima experiencia hiperconectada para todos”, un documento técnico sobre 6G que describe la visión de la empresa para la próxima era de las comunicaciones. Los expertos de Samsung y Samsung Research están trabajando intensamente para lograr la comercialización de 6G para 2030.</span></p>
]]></content:encoded>
																				</item>
					<item>
				<title>[Entrevista] Audio con calidad cinematográfica desde la comodidad de tu hogar: conoce a los líderes de la tecnología de audio 3D de próxima generación</title>
				<link>https://news.samsung.com/mx/audio-calidad-cinematografica-hogar-lideres-audio-3d?utm_source=rss&amp;utm_medium=direct</link>
				<pubDate>Wed, 15 Nov 2023 13:01:14 +0000</pubDate>
						<category><![CDATA[Tecnología e Innovación]]></category>
		<category><![CDATA[TV & Audio]]></category>
		<category><![CDATA[3D Audio]]></category>
		<category><![CDATA[IAMF]]></category>
		<category><![CDATA[Samsung Research]]></category>
                <guid isPermaLink="false">https://bit.ly/479oVaK</guid>
									<description><![CDATA[Para que los espectadores disfruten al máximo de contenidos como películas, juegos deportivos y eventos en vivo, las pantallas del hogar no sólo necesitan]]></description>
																<content:encoded><![CDATA[<p><span style="font-weight: 400;">Para que los espectadores disfruten al máximo de contenidos como películas, juegos deportivos y eventos en vivo, las </span><a href="https://www.samsung.com/mx/tvs/all-tvs/?cid=mx_ow_affiliate_newsroom_smart-tv_sustain_smart-tv_article_none_none" target="_blank" rel="noopener"><span style="font-weight: 400;">pantallas</span></a><span style="font-weight: 400;"> del hogar no sólo necesitan una excelente calidad de imagen, también una calidad de sonido impresionante. Al comprender esto, los líderes de la industria están buscando desarrollar audio 3D para agregar un nivel más profundo de inmersión a las experiencias de entretenimiento, dando vida a emocionantes escenas de acción y capturando los detalles más silenciosos del ruido ambiental.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">En pocas palabras, el audio 3D hace que los oyentes se sientan como si estuvieran realmente en medio de la acción. Típicamente solamente presente en lugares específicos, como salas de cine o estudios de grabación, el audio 3D está llegando a los hogares para brindar a los espectadores una nueva forma de experimentar su contenido favorito.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">El instituto de investigación avanzada de Samsung Electronics, Samsung Research, se ha esforzado por popularizar el audio 3D desde el año 2020. Con este fin, Samsung trabajó con Google para desarrollar en conjunto los Immersive Audio Model and Formats (IAMF, en español, modelos y formatos de audio inmersivo), una tecnología avanzada de audio espacial 3D que fue adoptada por la Alliance for Open Media (AOM)[1] en octubre de 2023. Samsung Newsroom se sentó con el equipo que desarrolló IAMF para escuchar la historia de cómo la tecnología cobró vida.</span></p>
<p>&nbsp;</p>
<p><i><span style="font-weight: 400;"> </span></i></p>
<div id="attachment_27018" style="width: 1010px" class="wp-caption alignnone"><img class="size-full wp-image-27018" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main1.jpg" alt="" width="1000" height="563" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main1.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main1-728x410.jpg 728w, https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main1-768x432.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /><p class="wp-caption-text">▲ El Equipo de Tecnología Visual de Samsung Research lideró el desarrollo de un estándar para tecnología de audio. (Desde la izquierda) SungHee Hwang, JeongHoon Park y WooHyun Nam</p></div>
<p>&nbsp;</p>
<h3><b>Una nueva forma de disfrutar del audio 3D en casa</b></h3>
<p><span style="font-weight: 400;">El ruido ambiental existe en todas partes, desde el sonido de los zapatos raspando la acera hasta el suave zumbido de los automóviles que circulan por la calle. Si bien este ruido puede parecer innecesario en los medios, es vital para agregar profundidad y sensación de realidad. El audio 3D funciona para combinar de forma continua el ruido ambiental con conversaciones y otros efectos de sonido con el fin de crear una experiencia de entretenimiento más vibrante y auténtica.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">&#8220;</span><i><span style="font-weight: 400;">El audio 3D te hace sentir como si realmente estuvieras en el corazón de la acción al ajustar la fuerza, el movimiento y la vibración del sonido</span></i><span style="font-weight: 400;">&#8220;, dijo WooHyun Nam del Equipo de Tecnología Visual de Samsung Research. &#8220;</span><i><span style="font-weight: 400;">De esta manera, los espectadores pueden disfrutar de un sonido con más cuerpo que captura los aspectos 3D del mundo que nos rodea</span></i><span style="font-weight: 400;">&#8220;.</span></p>
<p>&nbsp;</p>
<p><i><span style="font-weight: 400;"> </span></i></p>
<div id="attachment_27021" style="width: 1010px" class="wp-caption alignnone"><img class="size-full wp-image-27021" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main2.jpg" alt="" width="1000" height="667" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main2.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main2-844x563.jpg 844w, https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main2-768x512.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /><p class="wp-caption-text">▲ SungHee Hwang del Equipo de Tecnología Visual de Samsung Research</p></div>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">A pesar de las ventajas del audio 3D, ha sido difícil aplicar la tecnología a dispositivos de audio domésticos debido a limitaciones tecnológicas. &#8220;</span><i><span style="font-weight: 400;">La información de sonido 3D del contenido no puede ser interpretada adecuadamente por los sistemas de audio domésticos, como bocinas de </span></i><a href="https://www.samsung.com/mx/tvs/all-tvs/?cid=mx_ow_affiliate_newsroom_smart-tv_sustain_smart-tv_article_none_none"><i><span style="font-weight: 400;">televisiones</span></i></a><i><span style="font-weight: 400;"> o </span></i><a href="https://www.samsung.com/mx/audio-devices/soundbar/?cid=mx_ow_affiliate_newsroom_soundbar_sustain_barra-de-sonido_article_none_none"><i><span style="font-weight: 400;">barras de sonido</span></i></a><i><span style="font-weight: 400;">, lo que resulta en una experiencia de audio ligeramente limitada que carece de detalles del contenido original</span></i><span style="font-weight: 400;">&#8220;, dijo SungHee Hwang del Equipo de Tecnología Visual de Samsung Research.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Para resolver esto, Samsung trabajó diligentemente con Google para desarrollar una solución de audio que permitiera a los espectadores experimentar el audio del contenido según lo previsto. &#8220;</span><i><span style="font-weight: 400;">Si los fabricantes de dispositivos pueden leer los datos de audio 3D, pueden ajustar el sonido en los dispositivos de audio, lo que permite experiencias de audio inmersivas con bocinas de TV estándar o barras de sonido en casa</span></i><span style="font-weight: 400;">&#8220;, dijo Nam. &#8220;</span><i><span style="font-weight: 400;">Al ajustar el audio para que coincida con el entorno del dispositivo doméstico, los oyentes pueden experimentar el audio tal como lo concibió el creador, sin distorsiones ni pérdida de calidad</span></i><span style="font-weight: 400;">&#8220;.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Se requiere un estándar uniforme para enviar y recibir datos de audio sin problemas entre creadores y fabricantes de dispositivos. &#8220;</span><i><span style="font-weight: 400;">La experiencia respectiva de Samsung y Google en dispositivos y contenido convirtió a las empresas en socios ideales para crear la tecnología IAMF</span></i><span style="font-weight: 400;">&#8220;, dijo JeongHoon Park, Vicepresidente Ejecutivo y Head del Equipo de Tecnología Visual de Samsung Research. &#8220;</span><i><span style="font-weight: 400;">Al unirnos para desarrollar esta tecnología sin precedentes, estamos preparando el camino para que los consumidores disfruten del audio 3D en sus hogares</span></i><span style="font-weight: 400;">&#8220;.</span></p>
<p>&nbsp;</p>
<h3><b>Tres características de la tecnología IAMF: audio vertical, audio basado en IA y audio personalizado</b></h3>
<p><span style="font-weight: 400;">La tecnología IAMF ofrece tres recursos distintos que mejoran la experiencia de audio.</span></p>
<p>&nbsp;</p>
<p><i><span style="font-weight: 400;"> </span></i></p>
<div id="attachment_27017" style="width: 1010px" class="wp-caption alignnone"><img class="size-full wp-image-27017" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main3.jpg" alt="" width="1000" height="667" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main3.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main3-844x563.jpg 844w, https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main3-768x512.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /><p class="wp-caption-text">▲ WooHyun Nam del Equipo de Tecnología Visual de Samsung Research</p></div>
<p>&nbsp;</p>
<p><b>1. Capacidad de expresar sonido verticalmente</b></p>
<p><span style="font-weight: 400;">Los códecs de audio de código abierto anteriores solo admitían la expresión de sonido horizontal. Con la tecnología IAMF, el audio ahora puede expresarse verticalmente para que el sonido sea cada vez más multidireccional. &#8220;</span><i><span style="font-weight: 400;">IAMF hace que el sonido sea más realista al permitir que los oyentes escuchen el audio delante, detrás o a ambos lados y también por encima o por debajo de ellos</span></i><span style="font-weight: 400;">&#8220;, dijo Nam. &#8220;</span><i><span style="font-weight: 400;">Como tal, cuando la tecnología IAMF se aplica a las bocinas y barras de sonido de los televisores domésticos, lo que permite que los oyentes escuchen sonidos como pájaros volando sobre sus cabezas en sus televisores en casa</span></i><span style="font-weight: 400;">&#8220;.</span></p>
<p>&nbsp;</p>
<p><b>2. Análisis de escenas basado en IA y efectos de audio 3D</b></p>
<p><span style="font-weight: 400;">IAMF utiliza inteligencia artificial y tecnología de aprendizaje profundo para analizar escenas y enfatizar ciertos aspectos del contenido ajustando los niveles de audio para mejorar el sonido durante toda la experiencia visual. “</span><i><span style="font-weight: 400;">En la televisión y el cine, hay ciertas escenas en las que la banda sonora o la música de fondo es el foco principal</span></i><span style="font-weight: 400;">”, dijo Nam. “</span><i><span style="font-weight: 400;">La IAMF equilibrará el sonido en estos casos. De manera similar, la tecnología afinará el audio cuando haya diálogo entre personajes para permitir que el oyente se concentre en la conversación</span></i><span style="font-weight: 400;">”.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Además, la tecnología IAMF proporciona un sonido óptimo a pesar de los cambios en el entorno del dispositivo. &#8220;</span><i><span style="font-weight: 400;">Al ajustar los datos de audio del análisis de la escena según el entorno del dispositivo, la tecnología IAMF habilita a los oyentes a disfrutar de la calidad de sonido original del contenido en televisores domésticos estándar</span></i><span style="font-weight: 400;">&#8220;, añadió.</span></p>
<p>&nbsp;</p>
<p><b>3. Audio altamente personalizado</b></p>
<p><span style="font-weight: 400;">Los usuarios podrán ajustar libremente el sonido según sus preferencias con la tecnología IAMF. Ya sea que los espectadores busquen amplificar los efectos de sonido de una escena de acción o mejorar el diálogo, IAMF les brinda la flexibilidad de personalizar el audio del contenido para una experiencia más personalizada.</span></p>
<p>&nbsp;</p>
<div id="attachment_27019" style="width: 1010px" class="wp-caption alignnone"><img class="size-full wp-image-27019" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main4.jpg" alt="" width="1000" height="254" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main4.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main4-768x195.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /><p class="wp-caption-text">▲ IAMF analiza los datos del contenido y permite que los espectadores ajusten y personalicen la configuración de audio. Al ver un partido, los usuarios pueden elegir directamente si enfatizan la voz del comentarista o los sonidos del propio juego.</p></div>
<p>&nbsp;</p>
<h3><b>Audio 3D en toda la industria con IAMF de código abierto</b></h3>
<p><span style="font-weight: 400;">El código abierto es crucial para crear un estándar unificado en toda la industria. IAMF es el primer estándar de tecnología de audio de código abierto adoptado por AOM, lo que significa que tanto los creadores de contenido corporativos como independientes de toda la industria pueden acceder a la tecnología y ampliar su uso.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">&#8220;</span><i><span style="font-weight: 400;">Para permitir que las personas creen libremente contenido con tecnología de audio 3D, la tecnología relacionada debe estar abierta a todos</span></i><span style="font-weight: 400;">&#8220;, afirmó Nam. &#8220;</span><i><span style="font-weight: 400;">Proporcionar un marco completo de código abierto para audio 3D, desde la creación hasta la entrega y la reproducción, permitirá experiencias de contenido de audio aún más diversas en el futuro</span></i><span style="font-weight: 400;">&#8220;.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">De manera similar, Park destacó cómo la tecnología IAMF tendrá un gran impacto en el panorama del audio en el futuro. &#8220;</span><i><span style="font-weight: 400;">Debido a que vivimos en una era dominada por la creación de contenido, la IAMF ayudará a liderar, expandir y transformar el ecosistema de audio 3D</span></i><span style="font-weight: 400;">&#8220;, afirmó.</span></p>
<p>&nbsp;</p>
<h3><b>Éxito logrado a través de la cooperación</b></h3>
<p><span style="font-weight: 400;">La investigación sobre IAMF comenzó en 2020 y tardó casi cuatro años en completarse. Gracias a una combinación de perseverancia y trabajo duro, el equipo pudo lograr el éxito.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">&#8220;</span><i><span style="font-weight: 400;">El proyecto implicó muchos días de trabajo ininterrumpido y hubo momentos en los que necesitábamos trabajar de noche debido a la diferencia horaria entre nuestra oficina y la de Google</span></i><span style="font-weight: 400;">&#8220;, dijo Hwang. “</span><i><span style="font-weight: 400;">A pesar de estos desafíos, al final me sentí orgulloso. Fue una gran oportunidad para trabajar con desarrolladores de otros países</span></i><span style="font-weight: 400;">”.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Los equipos desarrollaron un sentido de camaradería a lo largo del camino y construyeron una base sólida de confianza y comprensión. &#8220;</span><i><span style="font-weight: 400;">Un empleado de Google mencionó que esta asociación con Samsung ha sido la colaboración más agradable que ha establecido hasta ahora</span></i><span style="font-weight: 400;">&#8220;, recordó Park. “</span><i><span style="font-weight: 400;">Pudimos llevar a cabo este proyecto porque nuestros equipos confiaban unos en otros. Estoy muy orgulloso y agradecido por los esfuerzos y la cooperación de los miembros de nuestro equipo</span></i><span style="font-weight: 400;">”.</span></p>
<p>&nbsp;</p>
<div id="attachment_27022" style="width: 1010px" class="wp-caption alignnone"><img class="size-full wp-image-27022" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main5-1.jpg" alt="" width="1000" height="667" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main5-1.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main5-1-844x563.jpg 844w, https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main5-1-768x512.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /><p class="wp-caption-text">▲ JeongHoon Park, Vicepresidente Ejecutivo Corporativo y Head del Equipo de Tecnología Visual de Samsung Research</p></div>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Además, Park elogió las habilidades y las experiencias únicas de cada miembro del equipo que ayudaron a contribuir a la creación de IAMF. &#8220;</span><i><span style="font-weight: 400;">WooHyun Nam desempeñó un papel decisivo al proponer ideas de desarrollo tecnológico, mientras que SungHee Hwang organizó y documentó las ideas de nuestro equipo de una manera clara</span></i><span style="font-weight: 400;">&#8220;, dijo.</span></p>
<p>&nbsp;</p>
<h3><b>Una visión del &#8216;Sonido Samsung&#8217;</b></h3>
<p><span style="font-weight: 400;">Tras su lanzamiento, el equipo de investigación de Samsung se dio cuenta de que la estandarización del audio espacial 3D marcaba una nueva era en la tecnología del sonido.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">&#8220;</span><i><span style="font-weight: 400;">Gracias a IAMF, podemos comenzar a investigar tecnologías que abrirán un mundo de posibilidades de audio</span></i><span style="font-weight: 400;">&#8220;, afirmó Nam. En línea con esto, el equipo de Samsung Research está desarrollando actualmente una versión avanzada de la tecnología IAMF que puede aplicarse a diferentes sectores, como los dispositivos móviles, el metaverso, los videojuegos y más.</span></p>
<p>&nbsp;</p>
<p><i><span style="font-weight: 400;"> </span></i></p>
<div id="attachment_27020" style="width: 1010px" class="wp-caption alignnone"><img class="size-full wp-image-27020" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main6.jpg" alt="" width="1000" height="667" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main6.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main6-844x563.jpg 844w, https://img.global.news.samsung.com/mx/wp-content/uploads/2023/11/3D-Audio-Tech_main6-768x512.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /><p class="wp-caption-text">▲ Con sus esfuerzos combinados y su incansable perseverancia, el Equipo de Tecnología Visual de Samsung Research pudo crear con éxito un nuevo estándar para audio 3D</p></div>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Dado el éxito de IAMF, el equipo de investigación de Samsung está motivado para crear una mejor tecnología de audio para los consumidores. Cada uno de los miembros del equipo compartió sus aspiraciones para el futuro del audio 3D.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Nam mencionó su deseo de crear tecnología de audio que sea más inmersiva. &#8220;</span><i><span style="font-weight: 400;">Quiero crear una tecnología de audio 3D más avanzada que haga que los usuarios se sientan como si estuvieran realmente en la escena de una película, programa de televisión o evento en vivo</span></i><span style="font-weight: 400;">&#8220;, dijo. &#8220;</span><i><span style="font-weight: 400;">También espero continuar esta investigación hasta que el audio 3D se aplique a los </span></i><a href="https://www.samsung.com/mx/smartphones/all-smartphones/?cid=mx_ow_affiliate_newsroom_smartphone_sustain_celulares_article_none_none"><i><span style="font-weight: 400;">celulares</span></i></a><i><span style="font-weight: 400;"> de Samsung</span></i><span style="font-weight: 400;">&#8220;.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">En términos más generales, Hwang habló sobre cómo espera que Samsung pueda crear una tecnología de audio incomparable que la coloque entre las otras compañías de audio líderes. &#8220;</span><i><span style="font-weight: 400;">Mi objetivo es desarrollar una tecnología que los consumidores puedan distinguir fácilmente como &#8216;Sonido Samsung&#8217; cuando la escuchen</span></i><span style="font-weight: 400;">&#8220;, dijo. &#8220;</span><i><span style="font-weight: 400;">Soy optimista y creo que el estándar de IAMF es un paso adelante hacia este sueño</span></i><span style="font-weight: 400;">&#8220;.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">&#8220;</span><i><span style="font-weight: 400;">Mi esperanza es que la tecnología de sonido de Samsung permita que los consumidores disfruten de una experiencia de audio perfeccionada que esté a la par de las experiencias visuales actuales</span></i><span style="font-weight: 400;">&#8220;, dijo Park. “</span><i><span style="font-weight: 400;">Espero que los creadores de contenido utilicen la tecnología de audio de Samsung para hacer accesible el contenido de audio 3D. Además, nuestro objetivo es crear un entorno de apoyo que habilite a los investigadores a asumir desafíos audaces y emocionantes, como la expansión de la tecnología de audio de Samsung</span></i><span style="font-weight: 400;">”.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Los estándares tecnológicos como IAMF harán que el entretenimiento sea más inmersivo para los espectadores en todos los ámbitos. El equipo de investigación de Samsung está allanando el camino para innovaciones que cambiarán el futuro del audio.</span></p>
<p>&nbsp;</p>
<h6><em><span style="font-weight: 400;">[1] Consorcio industrial sin ánimo de lucro creado para desarrollar y compartir tecnología de distribución multimedia, permitiendo a los creadores utilizarla sin preocuparse por los costes. Está gestionado por una alianza de 38 empresas, entre ellas Samsung Electronics, Google, Amazon, Apple y Meta. Los estándares tecnológicos como IAMF harán que el entretenimiento sea más inmersivo para los espectadores en todos los ámbitos. El equipo de investigación de Samsung está allanando el camino para innovaciones que cambiarán el futuro del audio. </span></em></h6>
]]></content:encoded>
																				</item>
					<item>
				<title>Samsung presenta la visión para el futuro de la IA en el Samsung AI Forum de 2022</title>
				<link>https://news.samsung.com/mx/samsung-presenta-la-vision-para-el-futuro-de-la-ia-en-el-samsung-ai-forum-de-2022?utm_source=rss&amp;utm_medium=direct</link>
				<pubDate>Thu, 10 Nov 2022 13:02:25 +0000</pubDate>
						<category><![CDATA[Tecnología e Innovación]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI Expert Voices]]></category>
		<category><![CDATA[AI Technology]]></category>
		<category><![CDATA[SAIT]]></category>
		<category><![CDATA[Samsung AI Forum]]></category>
		<category><![CDATA[Samsung AI Forum 2022]]></category>
		<category><![CDATA[Samsung Research]]></category>
                <guid isPermaLink="false">https://bit.ly/3A4ePJA</guid>
									<description><![CDATA[Una gran cantidad de académicos de renombre mundial, investigadores de Samsung Electronics y expertos de la industria se reunieron para compartir sus ideas]]></description>
																<content:encoded><![CDATA[<p><span style="font-weight: 400;">Una gran cantidad de académicos de renombre mundial, investigadores de Samsung Electronics y expertos de la industria se reunieron para compartir sus ideas sobre el futuro de la inteligencia artificial en Samsung AI Forum 2022.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">Ahora en su sexto año, Samsung AI Forum se llevó a cabo del 8 al 9 de noviembre, y se trató de la primera vez en tres años que el evento se realizó en persona. Con más de 1,200 participantes esperados, este foro global ofreció un programa completo organizado por el Instituto de Tecnología Avanzada de Samsung (SAIT)[1] el 8 de noviembre y Samsung Research[2] el 9 de noviembre.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">El evento también se transmitió en vivo en el </span><a href="https://www.youtube.com/samsung" target="_blank" rel="noopener"><span style="font-weight: 400;">canal de YouTube</span></a><span style="font-weight: 400;"> de Samsung Electronics.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<h3><b>Día uno: Modelando el futuro con IA y semiconductores</b></h3>
<p><img class="alignnone size-full wp-image-20437" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main1_AIForum_F.jpg" alt="" width="1000" height="563" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main1_AIForum_F.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main1_AIForum_F-728x410.jpg 728w, https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main1_AIForum_F-768x432.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Bajo el tema &#8220;Modelando el futuro con IA y semiconductores&#8221;, los expertos en IA se reunieron para discutir la futura dirección de la investigación de IA que creará nuevos hitos en la innovación de materiales y semiconductores basados en IA.</span></p>
<p>&nbsp;</p>
<p><img class="alignnone size-full wp-image-20439" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main1_JHHan.jpg" alt="" width="1000" height="562" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main1_JHHan.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main1_JHHan-728x410.jpg 728w, https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main1_JHHan-768x432.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">El día comenzó con las palabras de apertura de Jong-Hee (JH) Han, Vice Chairman, CEO y Head de la división Device eXperience (DX) de Samsung Electronics. “Espero que la tecnología de inteligencia artificial brinde una mayor conveniencia y nuevas experiencias para todos, mientras que también sienta las bases para otras innovaciones clave en varios campos y aplicaciones, incluidos los semiconductores de próxima generación”, dijo Han.</span></p>
<p>&nbsp;</p>
<p><img class="alignnone size-full wp-image-20438" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main2_F.jpg" alt="" width="1000" height="563" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main2_F.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main2_F-728x410.jpg 728w, https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main2_F-768x432.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">El profesor Yoshua Bengio de la Universidad de Montreal, Canadá, compartió su última investigación en una presentación principal, &#8220;Por qué necesitamos modelos globales amortizados, causal y bayesianos.” Enfatizó en el uso de interferencia amortizada y el enfoque Bayesiano en modelos causales para IA que explora teorías y diseña experimentos en el campo de la ciencia y la IA en general.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">Posteriormente, sesiones de tecnología, como &#8220;IA para la innovación en I+D&#8221;, &#8220;Avances recientes en algoritmos de IA&#8221; y &#8220;Computación a gran escala para IA y HPC&#8221; fueron compartidas.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">En la sesión &#8220;IA para la innovación en I+D&#8221;, los líderes de investigación de SAIT, incluyendo el Vicepresidente Ejecutivo y Head del Centro de Investigación de IA de SAIT, Changkyu Choi, compartieron el estado y la visión de la investigación de Samsung sobre IA. Específicamente, discutieron cómo la tecnología de IA influirá en campos que incluyen semiconductores y desarrollo de materiales.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">En una sesión denominada &#8220;Avances recientes de algoritmos de IA&#8221;, Minjoon Seo, profesor de KAIST, y Hyunoh Song, profesor de la Universidad Nacional de Seúl, realizaron presentaciones sobre los últimos logros de investigación sobre algoritmos de IA, incluida una interfaz basada en un gran modelo de lenguaje para búsqueda semántica ultra precisa.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">Por último, en una sesión llamada &#8220;Computación a gran escala para IA y HPC&#8221;, investigadores líderes en supercomputadoras, incluyendo el ex fellow de IBM e Intel, Alan Gara, discutieron el papel de la IA en el futuro de la computación de alto rendimiento. También presentaron un caso perspicaz sobre el </span><i><span style="font-weight: 400;">processing-in-memory</span></i><span style="font-weight: 400;">, una tecnología innovadora que está habilitada por el desarrollo de las supercomputadoras de próxima generación.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">Durante el foro también se entregaron los premios Samsung ‘AI Researcher of the Year’, que se crearon para descubrir a los investigadores emergentes sobresalientes en el campo de la IA. ‘Samsung AI Researcher of the Year’ fue otorgado a cinco investigadores de IA, incluyendo el profesor Mohit Iyyer de la Universidad de Massachusetts Amherst.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">Además, se llevaron a cabo varios programas, que incluyen presentaciones de documentos de excelentes trabajos de investigación, una presentación de SAIT, una exposición de sus proyectos de investigación y un evento de creación de redes para investigadores y estudiantes en el campo de la IA se realizó para acelerar la investigación activa en IA.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><img class="alignnone size-full wp-image-20436" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main3_F.jpg" alt="" width="1000" height="563" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main3_F.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main3_F-728x410.jpg 728w, https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/Samsung-AI-Forum_main3_F-768x432.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<h3><b>Día dos: Escalando la IA para el mundo real</b></h3>
<p><span style="font-weight: 400;">Bajo el lema &#8220;Escalando la IA para el mundo real&#8221;, el día 2 del foro organizado por Samsung Research fue un lugar para compartir la dirección del desarrollo de futuras tecnologías de IA que afectarán significativamente nuestras vidas, incluyendo la IA de gran escala, humanos digitales y robóticos, etc., que se han convertido en temas relevantes. </span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Sebastian Seung, Presidente y Head de Samsung Research, habló sobre los &#8220;primeros pasos de un esfuerzo por mejorar las teorías clásicas del cerebro, con la optimización de algoritmos de aprendizaje no supervisados biológicamente plausibles&#8221;, junto con un comentario de bienvenida.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">Después de la presentación sobre el &#8220;Estado actual de la investigación de IA por parte de Samsung Research&#8221; realizada por Daniel D. Lee, Vicepresidente Ejecutivo y Head del Centro Global de IA de Samsung Research, los expertos en IA, incluyendo los directores de los centros de investigación globales que recientemente han conducido actividades de investigación, fueron invitados al escenario como ponentes.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">El profesor Terrence Sejnowski de la Universidad de California en San Diego, EE. UU., quien fundó NeurIPS, la conferencia de IA más prestigiosa del mundo discutirá la inteligencia de los modelos de lenguaje a hiperescala con base en casos experimentales que prueban si los modelos de lenguaje a hiperescala tienen inteligencia.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">A esto le siguió una introducción de la dirección de investigación de IA de próxima generación para garantizar el uso responsable y justo de la IA de hiperescala en los productos y servicios de las empresas presentado por el Dr. Johannes Gehrke, Head del Microsoft Research Lab.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">A continuación, el profesor Dieter Fox de la Universidad de Washington, EE. UU., quien también es director sénior de investigación robótica en NVIDIA, explicó cómo un robot puede operar directamente objetos no aprendidos solo en función de datos visuales sin crear modelos 3D. También habló sobre cómo utilizar comandos de lenguaje natural para instruir efectivamente a un robot para que realice varias operaciones.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">Por último, Seungwon Hwang, profesor de la Universidad Nacional de Seúl, analizó formas de utilizar la causalidad, la evidencia y otras formas de conocimiento para fortalecer aún más los modelos de lenguaje a hiperescala.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">Hubo dos paneles de discusión en vivo moderados por el EVP Daniel Lee, uno por la mañana y otro por la tarde, en los cuales los panelistas discutieron varios temas. También se llevaron a cabo sesiones de </span><i><span style="font-weight: 400;">Lightning Talks</span></i><span style="font-weight: 400;"> en las que los investigadores del Global AI Center hicieron presentaciones sobre los detalles de su investigación actual.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">En una sesión de </span><i><span style="font-weight: 400;">Lightning Talks</span></i><span style="font-weight: 400;">, el Vicepresidente Joohyung Lee del Centro Global de IA discutió formas de usar modelos de IA de hiperescala para combinar la apariencia externa de un ser humano digital con la inteligencia interna. SangHa Kim también explicó una tecnología de traducción automática que permite a los usuarios utilizar varios productos de Samsung sin la barrera del idioma.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">Además, los participantes tuvieron la oportunidad de ver varias demostraciones y documentos de investigación producidos por el Centro Global de IA en el stand, donde interactuaron personalmente con los investigadores.</span></p>
<p><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">Adicionalmente, en el sitio web del foro, los oradores y participantes pudieron comunicarse libremente en coreano e inglés en </span><a href="https://saif-2022.com/day2/qna.php" target="_blank" rel="noopener"><span style="font-weight: 400;">Q&amp;A Bulletin Boar</span></a><span style="font-weight: 400;">, donde se utilizó el servicio de traducción de Samsung Research &#8220;<a href="https://translate.samsung.com/" target="_blank" rel="noopener">SR Translate</a>&#8220;.</span></p>
<p>&nbsp;</p>
<h6><span style="font-weight: 400;">[1] Centro de I+D de Samsung dedicado a las tecnologías de vanguardia del futuro.</span></h6>
<h6><span style="font-weight: 400;">[2] Samsung Research, que actúa como centro de I+D avanzado de Samsung Electronics, lidera el desarrollo de tecnologías del futuro para la división Device eXperience (DX) de la empresa.</span></h6>
]]></content:encoded>
																				</item>
					<item>
				<title>[Entrevista] Hacer que tu pantalla sea perfecta: los expertos explican la ingeniería detrás de UDC de Galaxy Z Fold4</title>
				<link>https://news.samsung.com/mx/entrevista-hacer-que-tu-pantalla-sea-perfecta-los-expertos-explican-la-ingenieria-detras-de-udc-de-galaxy-z-fold4?utm_source=rss&amp;utm_medium=direct</link>
				<pubDate>Wed, 02 Nov 2022 11:40:26 +0000</pubDate>
						<category><![CDATA[Celulares y Accesorios]]></category>
		<category><![CDATA[Tecnología e Innovación]]></category>
		<category><![CDATA[AI Devices]]></category>
		<category><![CDATA[Foldable]]></category>
		<category><![CDATA[Galaxy]]></category>
		<category><![CDATA[Galaxy Z Fold4]]></category>
		<category><![CDATA[Samsung R&D Institute India-Bangalore]]></category>
		<category><![CDATA[Samsung Research]]></category>
		<category><![CDATA[Samsung Research America]]></category>
                <guid isPermaLink="false">https://bit.ly/3FIXeL0</guid>
									<description><![CDATA[Como tantas grandes innovaciones, la última tecnología UDC fue un esfuerzo grupal, impulsado por los valiosos comentarios de los expertos y los consumidores]]></description>
																<content:encoded><![CDATA[<p><span style="font-weight: 400;">Como tantas grandes innovaciones, la última tecnología UDC fue un esfuerzo grupal, impulsado por los valiosos comentarios de los expertos y los consumidores de Samsung. Para aprender más sobre el UDC mejorado para Galaxy Z Fold4, Samsung Newsroom habló con los expertos de Samsung Research[1]  que colaboraron en la tecnología.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Continua leyendo para ver lo que John Seok-Jun Lee, Head de la Parte de Cámara Computacional en Samsung Research America (SRA), y Alok Shukla, Head de la Parte de Soluciones de Visión de IA en Samsung R&amp;D Institute India-Bangalore (SRI-B), tienen que decir sobre su colaboración detrás de traer tecnología UDC mejorada.</span></p>
<p>&nbsp;</p>
<p><img class="alignnone size-full wp-image-20274" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/SRA-SRI-Joint-Interview_Thumb-1.jpg" alt="" width="1000" height="563" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/SRA-SRI-Joint-Interview_Thumb-1.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/SRA-SRI-Joint-Interview_Thumb-1-728x410.jpg 728w, https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/SRA-SRI-Joint-Interview_Thumb-1-768x432.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Las cámaras para selfies son una parte vital de cualquier smartphone, pero encontrar el lugar perfecto para la cámara frontal a menudo puede ser un obstáculo para una experiencia de visualización perfecta. Sin embargo, gracias a Under Display Camera (UDC), los usuarios pueden despedirse del pequeño punto negro en la parte frontal de sus pantallas. Samsung Electronics le ha dado a UDC una importante actualización en el recién lanzado Galaxy Z Fold4, ofreciendo a los usuarios una experiencia de pantalla completa aún más inmersiva e ininterrumpida.</span></p>
<p>&nbsp;</p>
<p><b>John Seok-Jun Lee, Head de la Parte de Cámara Computacional en Samsung Research America</b>, l<span style="font-weight: 400;">idera un equipo de expertos en fotografía computacional de clase mundial, encargados de desarrollar imágenes computacionales basadas en IA para conservar más detalles en las fotos tomadas con UDC.</span></p>
<p>&nbsp;</p>
<p><b>Laboratorio de innovación de procesadores móviles (MPI) de SRA</b></p>
<p>&nbsp;</p>
<ul>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Tiene como objetivo desarrollar las mejores cámaras del mundo en smartphones Galaxy, incluida la UDC en Galaxy Z Fold3 y Z Fold4</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Lidera la I+D en procesamiento de múltiples fotogramas, canalizaciones de imágenes computacionales y tecnología de procesamiento de pixeles de IA para lograr la mejor calidad de imagen de smartphone del mundo.</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Diferencia la experiencia del usuario de la cámara Samsung Galaxy al comercializar las tecnologías desarrolladas a través de la colaboración con los grupos de I+D SRI-B y MX.</span></li>
</ul>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p><b>Alok Shuka, Head de la Parte de Soluciones de IA en Samsung R&amp;D Institute India-Bangalore</b>, d<span style="font-weight: 400;">irige un equipo que se especializa en el desarrollo integral de soluciones de cámara para dispositivos emblemáticos que utilizan IA (imágenes computacionales, reconocimiento humano e inteligencia profunda) para ofrecer las mejores funciones de cámara.</span></p>
<p>&nbsp;</p>
<p><b>Grupo de soluciones de visión AI de SRI-B</b></p>
<p>&nbsp;</p>
<ul>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Tiene una amplia experiencia en cámaras al trabajar en varios smartphones Galaxy</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Trabaja en estrecha colaboración con los equipos de I+D de Samsung en todo el mundo para ofrecer a los consumidores la mejor experiencia de cámara posible.</span></li>
</ul>
<p>&nbsp;</p>
<p><img class="alignnone size-full wp-image-20273" src="https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/SRA-SRI-Joint-Interview_Thumb-2.jpg" alt="" width="1000" height="563" srcset="https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/SRA-SRI-Joint-Interview_Thumb-2.jpg 1000w, https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/SRA-SRI-Joint-Interview_Thumb-2-728x410.jpg 728w, https://img.global.news.samsung.com/mx/wp-content/uploads/2022/11/SRA-SRI-Joint-Interview_Thumb-2-768x432.jpg 768w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>&nbsp;</p>
<p><b>¿Qué es una cámara debajo de la pantalla (UDC)?</b></p>
<p>&nbsp;</p>
<p><b>Seok-Jun:</b><span style="font-weight: 400;"> una cámara debajo de la pantalla (UDC) es una solución de cámara innovadora que permite una experiencia de visualización ininterrumpida en un dispositivo móvil ocultando la cámara debajo de la pantalla y dedicando toda la pantalla a los usuarios mientras se ejecutan las aplicaciones. No solo requiere innovación de hardware al colocar una cámara debajo de un panel de visualización, también requiere innovación de algoritmos para restaurar la calidad de la imagen, uno de los problemas de restauración de imágenes más complejos.</span></p>
<p>&nbsp;</p>
<div class="youtube_wrap"><iframe src="https://www.youtube.com/embed/zH6LZdSRNhU?rel=0" width="300" height="150" frameborder="0" allowfullscreen="allowfullscreen"><span style="display: inline-block; width: 0px; overflow: hidden; line-height: 0;" data-mce-type="bookmark" class="mce_SELRES_start"></span></iframe></div>
<p>&nbsp;</p>
<p><b>¿Cómo funciona UDC?</b></p>
<p>&nbsp;</p>
<p><b>Alok:</b><span style="font-weight: 400;"> en UDC, una cámara frontal se encuentra debajo de la pantalla. La densidad de píxeles de la pantalla se reduce en esta área, lo que permite que la pantalla muestre imágenes sin obstáculos, pero al mismo tiempo, no impide que la luz llegue a la cámara cuando está en uso. Como la cámara se coloca debajo de la pantalla, UDC puede sufrir una calidad de imagen deficiente causada por artefactos de difracción, lo que da como resultado destellos, saturación, desenfoque y neblina. Por lo tanto, si bien la tecnología UDC brinda una mejor experiencia de visualización, también afecta la calidad de imagen de la cámara y otras tareas de visión posteriores. Estas distorsiones complejas y diversas hacen que la restauración de imágenes UDC sea extremadamente desafiante.</span></p>
<p>&nbsp;</p>
<p><b>¿Por qué UDC es una tecnología importante cuando se trata de Galaxy Z Fold4? ¿Qué valor proporciona a los clientes?</b></p>
<p>&nbsp;</p>
<p><b>Seok-Jun:</b><span style="font-weight: 400;"> los dispositivos plegables de Samsung están diseñados para ser nuevos y diferentes, combinando un </span><i><span style="font-weight: 400;">smartphone</span></i><span style="font-weight: 400;"> con experiencias de visualización inmersivas en un solo dispositivo móvil a través de una tecnología de visualización innovadora. Cuando está plegado, proporciona un uso similar al de un smartphone y, cuando está desplegado, la pantalla ofrece una experiencia más inmersiva y productiva. Nuestra investigación de consumo mostró que los usuarios de la serie Galaxy Z Fold prefieren la cámara de la pantalla de cubierta para capturar fotos y selfies y la pantalla principal inmersiva para tareas más productivas como mirar videos, jugar y trabajar en documentos. Por lo tanto, pensamos que la tecnología UDC sería la opción perfecta para satisfacer las necesidades de una pantalla ininterrumpida sin dejar de ser capaz de realizar tareas como abrir videollamadas. Samsung lanzó la primera solución UDC plegable en Galaxy Z Fold3 y mejoró aún más su calidad en Galaxy Z Fold4.</span></p>
<p>&nbsp;</p>
<p><b>Alok:</b><span style="font-weight: 400;"> Galaxy Z Fold4 realmente despliega un mundo de visualización inmersiva. La tecnología UDC está en el centro de la búsqueda de una verdadera pantalla completa. Al combinar la innovación líder en tecnología de visualización con técnicas avanzadas de IA para la restauración de imágenes, Galaxy Z Fold4 brinda el equilibrio perfecto entre la calidad de la pantalla y la calidad de la imagen de la cámara.</span></p>
<p>&nbsp;</p>
<p><b>¿Cómo ha mejorado la calidad de imagen de la cámara desde el Galaxy Z Fold3?</b></p>
<p>&nbsp;</p>
<p><b>Alok:</b><span style="font-weight: 400;"> Samsung Galaxy Z Fold3 mostró la primera tecnología UDC del mundo en un plegable. Después del lanzamiento al mercado de Galaxy Z Fold3, uno de los comentarios clave de los consumidores fue hacer que la UDC fuera menos visible. En Galaxy Z Fold4, la disposición de los subpixeles se optimizó para ocultarla aún más.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Como se mencionó anteriormente, cuando la cámara se coloca debajo de la pantalla, esto puede causar una calidad de imagen deficiente causada por artefactos de difracción, que provocan destellos, saturación, desenfoque y neblina.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Es por eso que, en Galaxy Z Fold4, aprovechamos el poder de la IA, respaldada con el procesamiento de múltiples cuadros para desarrollar una nueva canalización de imágenes computacionales para la restauración de imágenes UDC.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">SRI-B, junto con Visual SW R&amp;D Group en MX Business, se enfocaron en desarrollar la Restauración de Imágenes con IA para la captura de fotografías y la vista previa para compensar la difracción óptica en UDC. Al mismo tiempo, el laboratorio de innovación de procesadores móviles (MPI) de SRA mejoró el algoritmo de fotografía computacional de fotogramas múltiples. El UDC de Galaxy Z Fold4 resuelve desafíos técnicos claves en calidad de imagen para brindar una experiencia única a los clientes finales.</span></p>
<p>&nbsp;</p>
<p><b>Guíanos a través del viaje del proyecto de asociación SRA-SRI. ¿Por qué sus dos equipos colaboraron?</b></p>
<p>&nbsp;</p>
<p><b>Seok-Jun:</b><span style="font-weight: 400;"> El SRA MPI Lab ha estado trabajando con SRI-B a lo largo de toda la historia de MPI en Samsung, desde la comercialización de la cámara Galaxy Note4 de 2014 hasta Galaxy Z Fold4 y Z Flip4 de 2022. SRA MPI ha liderado la investigación y el desarrollo de la tecnología de procesamiento de múltiples cuadros (MFP) MX para UDC, modo nocturno, Expert RAW y otras tecnologías. SRI-B ha contribuido a todas las impresoras multifunción de SRA MPI comercializadas al proporcionar un software de cámara increíble, ajuste de calidad de imagen y recursos para la comercialización, así como la I+D de cámaras AI. Nuestra colaboración de tres vías con el grupo MX R&amp;D, SRA MPI y SRI-B ha sido un éxito, especialmente cuando el equipo mundial utilizó las diferencias de zona horaria de manera efectiva para completar hitos a tiempo para un proyecto tan complicado. Siempre es un placer trabajar con ellos y ofrecer juntos los éxitos de las cámaras de los dispositivos Galaxy para lograr nuestro objetivo mutuo de ser la mejor experiencia de cámara para smartphones del mundo.</span></p>
<p>&nbsp;</p>
<p><b>Explique su trabajo y las contribuciones de su equipo para UDC. ¿Cómo contribuyó a hacer la mejor experiencia de usuario posible?</b></p>
<p>&nbsp;</p>
<p><b>Alok:</b><span style="font-weight: 400;"> Samsung Galaxy Z Fold4 UDC fue un proyecto de I+D complejo y el papel de SRI-B fue pensar en términos de extremo a extremo para la mejor experiencia del consumidor. Esto requería experiencia en múltiples dominios y una profunda colaboración entre varios equipos. Los expertos de SRI-B, SRA-MPI Lab y MX Visual SW R&amp;D Group trabajaron a la perfección para lograr una experiencia UDC integral.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">SRI-B también desempeñó un papel clave en el uso de una Unidad de Procesamiento Neuronal (NPU) para ejecutar el modelo de IA, logrando un rendimiento en tiempo real en las vistas previas y un tiempo de procesamiento de captura significativamente más rápido que en Samsung Galaxy Z Fold3 UDC. Las vistas previas de la cámara, las grabaciones de video y los escenarios de videollamadas necesitan un rendimiento en tiempo real sin perder ningún cuadro. La restauración de UDC basada en IA acelerada con NPU para el procesamiento de vista previa se aplicó por primera vez en Samsung Galaxy Z Fold4. Aunque no se requería el procesamiento en tiempo real, dado que la captura de la cámara requiere una calidad de imagen más alta que una vista previa, se deseaba lograr una mejor calidad de imagen con menos tiempo de procesamiento para la experiencia del usuario.</span></p>
<p>&nbsp;</p>
<p><b>¿Cuáles fueron algunos de los desafíos que enfrentó al desarrollar esta tecnología y cómo los superó?</b></p>
<p>&nbsp;</p>
<p><b>Seok-Jun:</b><span style="font-weight: 400;"> la baja transmisión y  difracción de la luz son los principales desafíos para la tecnología de cámaras UDC. Aún así, un desafío más, diferente de una imagen de cámara perforada, es que la calidad de captura de UDC se ve afectada no solo por el módulo de la cámara, también por el panel de visualización. El algoritmo 3D ISP basado en IA de SRA MPI se diseñó con la flexibilidad necesaria para ajustar la calidad de la imagen de salida con las diferentes características de visualización. Tener tanta flexibilidad en 3D ISP ayudó a superar tales desafíos.</span></p>
<p>&nbsp;</p>
<p><b>Alok:</b><span style="font-weight: 400;"> el enfoque clave de SRI-B fue desarrollar un módulo de restauración de imágenes de IA para Samsung Galaxy Z Fold4 UDC. Estas restauraciones son necesarias tanto para el modo de captura de fotos como para el modo de video. Los escenarios de grabación de video y videollamadas tienen requisitos estrictos para el procesamiento en tiempo real dentro de las limitaciones del consumo actual.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">La restauración de UDC basada en IA se aplicó por primera vez en Samsung Galaxy Z Fold4 UDC para video. Con el fin de lograr una experiencia de mejor calidad de video que Galaxy Z Fold3, tuvimos que hacer que el modelo de IA fuera más liviano y al mismo tiempo lograr una buena calidad de restauración. Se realizaron múltiples experimentos en diseño y capacitación de redes para lograr una buena calidad en tiempo real. SRI-B utilizó ampliamente NPU y técnicas de cuantificación avanzadas para preparar un modelo de IA más liviano y altamente optimizado que logra un rendimiento en tiempo real con un bajo consumo de corriente.</span></p>
<p>&nbsp;</p>
<p><b>¿Cuál es su visión para futuras iteraciones de UDC en Samsung?</b></p>
<p>&nbsp;</p>
<p><b>Alok:</b><span style="font-weight: 400;"> el UDC de Samsung Galaxy Fold4 ha abierto una nueva dimensión al factor de forma de la cámara del smartphone. UDCs en el futuro permitirán colocar sensores de cámara más grandes y múltiples cámaras en posiciones flexibles sin comprometer la experiencia de visualización. Otro gran desafío es la adopción masiva de la tecnología UDC en más productos como la cámara frontal principal. Para que esto suceda, deberá haber una mejora significativa en la calidad de imagen de la cámara, el tiempo de procesamiento y la experiencia de visualización.</span></p>
<p>&nbsp;</p>
<p><b>Seok-Jun:</b><span style="font-weight: 400;"> dado que Galaxy Z Fold4 UDC brinda una experiencia mucho mejor en términos de ocultar la cámara debajo de la pantalla y mejorar la calidad de la imagen, la dirección de I+D para los próximos dispositivos insignia trabajará para hacer que la tecnología UDC sea completamente invisible. Esto proporcionará la mejor experiencia de pantalla móvil inmersiva ininterrumpida mientras se logra la misma calidad de imagen que una cámara perforada.</span></p>
<p>&nbsp;</p>
<h6><span style="font-weight: 400;">[1] Samsung Research, que actúa como centro de investigación y desarrollo avanzado de Samsung Electronics, lidera el desarrollo de tecnologías futuras para la división Device eXperience (DX) de la compañía.</span></h6>
]]></content:encoded>
																				</item>
			</channel>
</rss>
