{ "@context": "https://schema.org", "@graph": [ { "@type" : "Organization", "@id": "/#Organization", "name": "Portal Serrolândia", "url": "/", "logo": "/images/1729551530nail_Portal_Serrolândia.png", "sameAs": ["https:\/\/www.facebook.com\/portalserrolandia","https:\/\/www.instagram.com\/portal_serrolandia\/","https:\/\/twitter.com\/Eltonabreuu"] }, { "@type": "BreadcrumbList", "@id": "/#Breadcrumb", "itemListElement": [ { "@type": "ListItem", "position": 1, "name": "Portal Serrolândia", "item": "/" }, { "@type": "ListItem", "position": 2, "name": "Bahia", "item": "/ver-noticia/116/bahia" }, { "@type": "ListItem", "position": 3, "name": "Red Hat desbloqueia IA generativa para qualquer modelo e lugar com o Red Hat AI Inference Server" } ] }, { "@type" : "Website", "@id": "/noticia/18085/red-hat-desbloqueia-ia-generativa-para-qualquer-modelo-e-lugar-com-o-red-hat-ai-inference-server#Website", "name" : "Red Hat desbloqueia IA generativa para qualquer modelo e lugar com o Red Hat AI Inference Server", "description": "Com tecnologia vLLM, a solução oferece inferência de IA mais rápida, econômica e de alto desempenho na nuvem híbrida", "image" : "https://img.cmswebsg.com.br/portalserrolandia-br.atualizabahia.com/image?src=/images/noticias/18085/22054504_f1c6d1f0-7.png.png&w=1200&h=630&output=jpg", "url" : "/noticia/18085/red-hat-desbloqueia-ia-generativa-para-qualquer-modelo-e-lugar-com-o-red-hat-ai-inference-server" }, { "@type": "NewsMediaOrganization", "@id": "/noticia/18085/red-hat-desbloqueia-ia-generativa-para-qualquer-modelo-e-lugar-com-o-red-hat-ai-inference-server#NewsMediaOrganization", "name": "Portal Serrolândia", "alternateName": "Portal Serrolândia", "url": "/", "logo": "http://portalserrolandia-br.atualizabahia.com/images/ck/files/ultimas-noticias.jpg", "sameAs": ["https:\/\/www.facebook.com\/portalserrolandia","https:\/\/www.instagram.com\/portal_serrolandia\/","https:\/\/twitter.com\/Eltonabreuu"] }, { "@type": "NewsArticle", "@id": "/noticia/18085/red-hat-desbloqueia-ia-generativa-para-qualquer-modelo-e-lugar-com-o-red-hat-ai-inference-server#NewsArticle", "mainEntityOfPage": { "@type": "WebPage", "@id": "/noticia/18085/red-hat-desbloqueia-ia-generativa-para-qualquer-modelo-e-lugar-com-o-red-hat-ai-inference-server" }, "headline": "Red Hat desbloqueia IA generativa para qualquer modelo e lugar com o Red Hat AI Inference Server", "description": "Com tecnologia vLLM, a solução oferece inferência de IA mais rápida, econômica e de alto desempenho na nuvem híbrida", "image": ["https://img.cmswebsg.com.br/portalserrolandia-br.atualizabahia.com/image?src=/images/noticias/18085/22054504_f1c6d1f0-7.png.png&w=1200&h=630&output=jpg"], "datePublished": "2025-05-23T00:01:08-03:00", "dateModified": "2025-05-23T00:01:08-03:00", "author": { "@type": "Person", "name": "www.portalserrolandia-br.atualizabahia.com", "url": "/" }, "publisher": { "@type": "Organization", "@id": "/#Organization", "name": "Portal Serrolândia", "logo": { "@type": "ImageObject", "url": "http://portalserrolandia-br.atualizabahia.com/images/ck/files/ultimas-noticias.jpg", "width": 600, "height": 600 } } } ] }
São Paulo, 22 de maio de 2025 — Um o significativo para democratizar a IA generativa (gen AI) foi dado hoje com o lançamento do Red Hat AI Inference Server. Disponível dentro do Red Hat AI, o servidor de inferência de nível empresarial nasce a partir do poderoso projeto comunitário vLLM, aprimorado pela integração das tecnologias Neural Magic às da Red Hat, oferecendo mais velocidade, eficiência no uso de aceleradores e melhor relação custo-benefício para ajudar a concretizar a visão da Red Hat de rodar qualquer modelo de gen AI,em qualquer acelerador de IA e em qualquer ambiente de nuvem.
A inferência se tornou o motor do sucesso da IA, é por meio dele que modelos pré-treinados traduzem dados para mundo real. À medida que os modelos de gen AI se tornam mais complexos e suas implantações em produção se expandem, a disciplina pode se tornar um gargalo significativo, consumindo recursos de hardware, comprometendo a capacidade de resposta e inflacionando os custos operacionais. Dessa forma, servidores de inferência robustos não são mais um luxo, mas sim uma necessidade para desbloquear o verdadeiro potencial da IA em escala.
A Red Hat aborda diretamente esses desafios com o Red Hat AI Inference Server — uma solução de inferência aberta, projetada para funcionar com alto desempenho e equipada com as principais ferramentas de compressão e otimização de modelos. A inovação permite que as organizações desfrutem da gen AI, por meio experiências do usuário exponencialmente mais rápidas e uma liberdade única para escolher aceleradores de IA, modelos e ambientes de TI.
vLLM: ampliando a inovação em inferência
O Red Hat AI Inference Server é baseado no projeto vLLM, líder do setor, iniciado pela Universidade da Califórnia, Berkeley, em meados de 2023. Esse projeto comunitário oferece inferência de gen AI de alto rendimento, e a grandes contextos de entrada (input context), aceleração multi-GPUs de modelos, e para agrupamento contínuo (continuous batching) e muito mais.
O amplo e do vLLM a modelos disponíveis publicamente, aliado à sua integração desde o princípio com modelos de ponta como DeepSeek, Gemma, Llama, Llama Nemotron, Mistral, Phi entre outros, o posiciona como o padrão para inovações futuras em inferência de IA.
Apresentando o Red Hat AI Inference Server
O Red Hat AI Inference Server incorpora a inovação vLLM e a empacota em soluções empresariais. O servidor está disponível como uma oferta conteinerizada independente ou como parte do RHEL AI e do Red Hat OpenShift AI.
Em qualquer ambiente de implantação, o Red Hat AI Inference Server fornece aos usuários uma distribuição sólida e com e no vLLM, além de:
Visão da Red Hat: qualquer modelo, qualquer acelerador, qualquer nuvem
O futuro da IA deve ser definido por oportunidades ilimitadas e não por silos de infraestrutura. A Red Hat enxerga um horizonte no qual as organizações possam implantar qualquer modelo, em qualquer acelerador, em qualquer nuvem, entregando uma experiência de usuário excepcional e mais consistente, sem custos exorbitantes. Para desbloquear o verdadeiro potencial dos investimentos em gen AI, as empresas precisam de uma plataforma universal de inferência — um novo padrão para inovações em IA contínuas e de alto desempenho, tanto no presente quanto nos próximos anos.
Assim como a Red Hat foi pioneira na transformação do Linux em base fundamental da TI moderna, a empresa está agora preparada para arquitetar o futuro da inferência de IA. O vLLM tem o potencial de se tornar a peça-chave para uma inferência padronizada em gen AI, e a empresa está comprometida em construir um ecossistema próspero não apenas em torno da comunidade vLLM, mas também do llm-d, voltado para inferência distribuída em larga escala. O objetivo é claro: independentemente do modelo de IA, do acelerador subjacente ou do ambiente de implantação, a Red Hat pretende tornar o vLLM o padrão aberto definitivo para inferência na nova nuvem híbrida.
Red Hat Summit
Participe das keynotes principais do Red Hat Summit para ouvir as últimas novidades de executivos, clientes e parceiros da Red Hat:
Sobre a Red Hat
A Red Hat é líder em tecnologia de nuvem híbrida aberta, e proporciona uma base confiável, consistente e abrangente para uma inovação transformadora em TI e aplicações de inteligência artificial (IA). Seu portfólio de tecnologias de nuvem, desenvolvimento, IA, Linux e automação permite a implementação de qualquer aplicação, em qualquer lugar, desde data centers até a edge. Como líder mundial no fornecimento de soluções de software open source empresarial, a Red Hat investe em ecossistemas e comunidades abertas para resolver os desafios de TI do futuro. Por meio da colaboração, a Red Hat ajuda clientes e parceiros a construir, conectar, automatizar, proteger e gerenciar seus ambientes de TI, com o e de serviços de consultoria, treinamento e certificação reconhecidos mundialmente.
Notícia distribuída pela portalserrolandia-br.atualizabahia.com. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
ERIC REALE FINGER
[email protected]