Diolinux - O modo Linux e Open Source de ver o Mundo

Responsive Ad Slot

Mostrando postagens com marcador intel. Mostrar todas as postagens
Mostrando postagens com marcador intel. Mostrar todas as postagens

Ubuntu 19.04 é lançado com otimizações de desempenho e Kernel Linux 5

Nenhum comentário

quinta-feira, 18 de abril de 2019

Muitos que chegaram no mundo Linux ou que tiveram contato com o mesmo, foi através do Ubuntu, tirando a “velha guarda” dos usuários e os mais “fuçadores”, ele foi e ainda é a porta de entrada para o mundo Linux tanto para usuários comuns, como para empresas.


 Ubuntu 19.04 é lançado com otimizações de desempenho e Kernel Linux 5






Nos últimos anos, o Ubuntu foi a “cara” do Linux, com a interface Unity e suas cores, que como diz a música, “Entre tapas e beijos, é ódio é desejo…”, foi conquistando usuários ao redor do mundo. Quem não lembra dos CDs e DVDs que a Canonical mandava via correspondência para as nossas casas? 😁

E quando foi anunciado o “fim” do Unity pela Canonical, muitos se perguntavam qual interface iria ser utilizada, e a escolha foi o GNOME, pois o Unity era um fork do mesmo e assim a transição seria menos “traumática”, vamos assim dizer. Will Cooke, principal líder do time de desenvolvimento do Ubuntu, nos conta como foi essa transição em uma entrevista exclusiva.

Novidades do Ubuntu 19.04 Disco Dingo


Na data de hoje (18/04/2019), o Ubuntu chega na sua versão 19.04, sendo aguardada por muitos, pois várias melhorias no Kernel, GNOME, Drivers, Apps e afins, vão estar disponíveis para utilização dos usuários.

As principais novidades que chegaram ao Ubuntu 19.04 são:

- GNOME 3.32 ;
- Kernel 5.0;
- Driver de vídeo da NVIDIA na versão 418.56;
- Driver de vídeo para AMD e Intel, o Mesa Driver na versão 19.0.2;
- LibreOffice 6.2.2;
- Mozilla Firefox 66.0;

Quem tem placas de vídeo da Nvidia em notebooks pode comemorar também um melhor suporte. a hora que você for instalar, poderá escolher o “Safe Graphics Mode”, que vai habilitar o NOMODESET, possibilitando “subir” o sistema e instalar o driver proprietário da NVIDIA já na tela de formatação. Ainda falta a implementação da troca de GPUs sem precisar reiniciar a sessão ou a máquina, mas já é um começo. Podemos ouvir um “Amém”????

Download da versão atualizada


Para conferir todas as novidades, tanto da versão desktop quanto a de servidores, você pode acessar este link. Lembrando que o Ubuntu 19.04 não é uma versão LTS (suporte de 5 anos) e que o suporte desta versão só terá 9 meses.

Para baixar o novo Ubuntu 19.04, você pode conferir este link.

Você também pode baixar as flavors do Ubuntu (Xubuntu, Kubuntu, Ubuntu MATE, Lubuntu, Ubuntu Kylin, etc.) neste endereço.

Atualização para a nova versão


Se você usa o Ubuntu 18.04 LTS ou o 18.10 (especialmente), é possível fazer a atualização pelo gerenciador de atualizações do seu Ubuntu, caso você tenha baixado a versão Beta do 19.04, basta manter o sistema atualizado e você estará utilizando a versão final.

A atualização é recomendada apenas se você realmente não precisa do suporte a longo prazo que a LTS te proporciona, tirando esta questão e o suporte ao sistema de Live patching da Canonical, o Ubuntu 19.04 Disco Dingo é um upgrade muito interessante em relação ao 18.10 e ao 18.04 LTS.

Em breve publicaremos vídeos sobre essa nova versão do Ubuntu, por hora, você pode conferir a preview logo abaixo:

                 

Você já baixou o Ubuntu 19.04? O que achou da nova versão?

Este artigo não acaba aqui, continue trocando uma ideia lá  no nosso  fórum

Espero você até a próxima, um forte abraço.

_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Intel declara que vai dar suporte ao Linux nas suas GPUs dedicadas

Nenhum comentário

terça-feira, 19 de fevereiro de 2019

A Intel vem se mostrando uma grande parceira ao Linux e do mundo open source, visto que a mesma, ao longo dos últimos anos, vem implementando suporte a novas tecnologias, como o Vulkan, aos seus processadores e GPUs integradas neles, e essa mesma dedicação pode ser esperada da nova empreitada da empresa, as GPUs dedicadas.


 Intel declara que vai dar suporte ao Linux nas suas GPUs dedicadas






Em uma publicação no Twitter, com uma das contas oficiais, a @IntelGraphics, a companhia declarou que tem o compromisso com a comunidade Open Source, e trará um suporte robusto para o Linux com às novas GPUs dedicadas que a empresa promete trazer para o mercado.


No mesmo tweet, a Intel disponibiliza um link com as implementações feitas para a tecnologia de “different memory regions” (regiões de memória diferentes, em tradução livre). Para saber mais sobre essa tecnologia, basta acessar o link acima citado.

Esse movimento da Intel em ter soluções em GPUs dedicadas, ainda que não saibamos qual será o público alvo, (arrisco a dizer que provavelmente será o público gamer e dos designers) vai trazer uma concorrência muito boa para o setor que durante muitos anos só teve duas opções de qualidade, AMD e Nvidia, e agora terá a chegada de mais um “player de peso” para concorrer e “disputar a tapas” às moedinhas dos consumidores a partir de 2020.

Agora nos resta saber onde essas GPUs entrarão, com quais setores de suas concorrentes elas farão páreo?

E você, teria uma solução completa da Intel, CPU e GPU? Diga aí nos comentários.

Espero você no próximo post, forte abraço.

_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Aprenda a deixar o Ubuntu e o Linux Mint prontos para jogar!

Nenhum comentário

domingo, 3 de fevereiro de 2019

Muitos que chegam ao blog, no canal Diolinux e no grupo do Facebook, perguntam como preparar o seu computador para que se possa jogar tanto na Steam via Steamplay ou até mesmo em outras lojas, como Uplay, Origin, Battlenet e Epic Store. No post de hoje vamos mostrar o que você precisa instalar para rodar esses games.


 Aprenda a deixar o Ubuntu e o Linux Mint prontos para jogar!






Vamos começar com o básico, que é a verificação se a sua GPU tem suporte ao Vulkan, o que permitirá usar o DXVK para rodar os games, tanto pela Steam quanto nas outras lojas.

Logo abaixo você pode  consultar se a sua placa é compatível com Vulkan. É de suma importância que a sua GPU tenha suporte completo para o Vulkan, pois se não tiver, pode ser que o jogo não rode de forma satisfatória.




Depois disso vamos instalar o último driver para Nvidia e AMD/Intel. No primeiro caso precisamos usar o driver 415.27 e no segundo caso precisamos usar o Mesa Driver 18.3 para ter as últimas atualizações e implementações para Vulkan. Para instalar as últimas versões dos drivers, vamos deixar 2 links logo abaixo com o procedimento completinho de como fazer. Para o pessoal que usa AMD/Intel é recomendado o PPA do Padoka.




OBS: Estas são as versões dos drivers no momento da criação deste artigo, dependendo do momento da sua leitura, podem haver versões mais recentes, atente-se para esse detalhe.

Passos opcionais que podem melhorar a compatibilidade


Se você pretende usar o Steamplay, só a instalação dos drivers adequado já deve ser o suficiente, porém, se deseja utilizar uma ferramenta como o Lutris para rodar games de outras lojas, ainda que o Lutris se encarregue de fazer todos os ajustes geralmente, para aumentar o nível de compatibilidade é possível instalar alguns complementos ao Wine nativo do seu sistema.

Primeiro precisamos habilitar o suporte para arquitetura de 32 bits, isso é fácil de fazer vamos abrir o terminal e digitar (ou colar) o seguinte comando:

sudo dpkg --add-architecture i386

Agora vamos instalar o Wine-Stable pelo Synaptic e procurar por esses pacotes lá:

wine-stable (3.0-1ubuntu1) ; libwine (3.0-1ubuntu1) ; libewine-development (3.6-1) ; wine64 (3.0-1ubuntu1) ; wine64-development (3.6-1) ; wineprefix e fonts-wine

No caso do Linux Mint, você também pode procurar diretamente na loja de aplicativos, não precisando do Synaptic necessariamente, no Ubuntu, obrigatoriamente será necessário usar o Synpatic, ou então usar o terminal para instalar cada um dos pacotes usando o “apt”.

Agora vamos conferir se os pacotes do Vulkan estão instalados, se você estiver usando Nvidia, ao instalar o driver, o suporte à Vulkan é ativado, não sendo necessário outras medidas. Se você usa AMD ou Intel confira se o Mesa Driver instalou o pacote mesa-vulkan-drivers. Agora os pacotes:

libvulkan1 ; libvulkan1:i386 e vulkan-tools

Por via das dúvidas, caso você use Nvidia e queira conferir, procure por esses: libnvidia-gl-415 ; libnvidia-gl-415:i386

Depois de fazer esses procedimentos, foi possível rodar o jogo Mass Affect 2 via Origin no Lutris, confira o desempenho no vídeo abaixo, além do tutorial de instalação dos drivers passo a passo:

             

Para instalar o Lutris, depois de seguir esse tutorial, basta seguir o passo a passo deles. Outra alternativa é baixá-lo diretamente da loja de aplicativos na sua distro. 

Com esses pacotes instalados, você vai poder jogar os games que não estão na Steam, como os jogos da Uplay, Origin, Battlenet e Epic Store (tirando o Fortnite,  atualmente).

Feito isso é só acessar o site do pessoal do Lutris e procurar pelo seu jogo e rodar 🙂

             

Espero você no próximo post, forte abraço.
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


SUSE colabora com Intel e SAP para acelerar a transformação de TI com memória persistente no Data Center

Nenhum comentário

quinta-feira, 17 de janeiro de 2019

A SUSE anunciou hoje o suporte para a memória persistente Intel OptaneTM DC com SAP HANA. Executados no SUSE Linux Enterprise Server (SLES) for SAP Applications, os usuários do SAP HANA podem agora tirar proveito da memória persistente de alta capacidade Intel Optane DC no data center.

 SUSE colabora com Intel e SAP para acelerar a transformação de TI com memória persistente no Data Center





Os usuários podem otimizar seus workloads, movimentando e mantendo altas quantidades de dados mais próximas do processador e minimizando a maior latência de buscar dados do armazenamento do sistema durante a manutenção. O suporte para a memória persistente Intel Optane DC, atualmente disponível em versão beta de vários provedores de serviços na nuvem e fornecedores de hardware, é outra forma pela qual a SUSE auxilia clientes a transformar suas infraestruturas de TI para reduzir custos, oferecer melhor desempenho e competir com mais eficiência.

“A tecnologia de memória persistente irá desencadear novas aplicações para acesso e armazenamento de dados”, diz Thomas Di Giacomo, Chief Technology Officer (CTO) da SUSE. “Ao oferecer uma solução totalmente suportada com base na memória persistente Intel Optane DC, as empresas podem aproveitar melhor o desempenho do SAP HANA. A SUSE continua firmando parcerias com empresas como SAP e Intel para atender clientes em todo o mundo que buscam impulsionar o crescimento, transformando sua infraestrutura de TI. São suas necessidades que orientam a direção de nossa inovação”.

“A memória persistente Intel Optane DC representa uma nova classe de memória e tecnologia de armazenamento, projetada especificamente para aplicação no data center. Essa nova classe permite soluções de banco de dados com memória de baixo custo e alta capacidade; garante maior tempo de atividade do sistema e recuperação mais rápida após os ciclos de energia; e oferece aplicativos de escala em nuvem com desempenho mais alto”, relata Alper Ilkbahar, vice-presidente e gerente geral do Grupo de Soluções de Memória Não Volátil e Armazenamento da Intel.

“Ao trabalhar em conjunto com a SUSE e a SAP para levar essa tecnologia transformadora aos nossos clientes, podemos ajudá-los a aproveitar toda uma nova geração de aplicativos e serviços que podem fornecer recursos revolucionários para a era centrada em dados ou ‘data-centric’”, complementa Ilkbahar.

“A capacidade de fornecer memória persistente para o SAP HANA é um marco significativo em nosso relacionamento contínuo com a SUSE e a Intel. O SAP Digital Core baseia-se no conceito de simplificar a infraestrutura para aumentar a produtividade e obter insights em tempo real”, afirma Martin Heisig, Head da Rede de Inovações Tecnológicas SAP HANA.
O SAP HANA oferece às empresas de todos os tamanhos uma solução de banco de dados de alto desempenho para suas aplicações SAP. Os clientes que utilizam o SUSE Linux Enterprise Server for SAP Applications e executam workloads do SAP HANA na memória persistente Intel Optane DC podem esperar por economias de custo de infraestrutura juntamente com uma redução na sobrecarga de gerenciamento. Como os workloads do SAP HANA são executados em Linux, o sistema operacional SUSE Linux Enterprise é atualmente a única solução que oferece suporte para a memória persistente SAP HANA e Intel Optane DC.

O suporte para a memória persistente Intel Optane DC com workloads SAP HANA em execução no SUSE Linux Enterprise Server for SAP Applications está incluído no SUSE Linux Enterprise 12 Service Pack 4, disponível agora em todo o mundo. Para mais informações sobre o SUSE Linux Enterprise, acesse https://www.suse.com/pt-br/products/server/

_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Driver Open Source da Nvidia - Vale a pena usar?

Nenhum comentário

segunda-feira, 17 de dezembro de 2018


Quem é recém chegado ao mundo Linux e utiliza NVIDIA pode ficar em dúvida sobre qual driver usar no seu equipamento, se o proprietário ou o de código aberto (chamado de Nouveau), e muitos provavelmente em um primeiro contato utilizam o nouveau, por ser o que vem por padrão no Kernel, tendo assim uma experiência nada agradável


Driver Open Source da Nvidia - Vale a pena usar?







Até descobrirem como instalar o driver proprietário de forma correta (que é mamão com açúcar) podem ficar chateados e até “com raiva” do sistema, assim não voltando mais a utilizar ele por causa de pequenos detalhes.


  • Falando em instalar drivers da NVIDIA de forma fácil, recentemente fizemos um post explicando melhor como fazer isso, vale a pena conferir. =)

De uns tempos para cá a solução open source para NVIDIA não vinha trazendo resultados satisfatórios, com perda de rendimento em games, renderização de vídeos e em alguns casos nem subindo o sistema operacional, como acontece nos notebooks com placas híbridas.

Também fizemos duas matérias falando sobre o sistema híbrido, uma comentando as novidades que virão à partir do Xorg 1.20 e o outra sobre como instalar o driver Linux (Ubuntu e Mint).


AMD e Intel


Quem utiliza AMD e Intel geralmente não se aborrece com esses “perrengues”, visto que os drivers de vídeo dessas empresas vêm embutidos diretamente no kernel e se precisar de uma versão mais nova, basta instalar o MESA Driver mais recente e receber os últimos updates. Também fizemos um artigo de como receber as versões do MESA.

Dito isso, sempre se especulou o quanto o driver open source “perdia” em relação ao proprietário, visto que a NVIDIA não facilita a vida dos desenvolvedores do Nouveau, liberando por exemplo o firmware com suporte ao PMU (Power Management Unit ou Unidade de Gerenciamento de Energia) entre outras features.

Testando o driver Open Source da Nvidia

Para tirar essa dúvida a limpo, o pessoal do site Phoronix, resolveu testar algumas placas de vídeo, primeiro com o driver proprietário da NVIDIA na versão 415 e depois com o Nouveau utilizando o Kernel Linux 4.19 e com o MESA 19.0-devel.

No caso do nouveau, eles precisaram fazer um re-clocked 0f em algumas placas para que o teste pudesse ser feito. As placas utilizadas foram: NVIDIA GeForce GTX 680 2GB (1066/3004MHz), NVIDIA GTX 750 Ti 2GB (1019/2700MHz), NVIDIA GTX 780 Ti 3GB (875/3500MHz), NVIDIA GTX 980 4GB (1126/3505MHz) e a NVIDIA GTX 1080 8GB (1607/5005MHz). O teste foi feito no Ubuntu 18.04.

No driver proprietário da NVIDIA, tinha o VULKAN 1.1 + OpenGL 4.6, enquanto que no nouveau só tinha o OpenGL 4.3.


Os jogos utilizados no teste foi limitado para aqueles que tinham suporte  para o OpenGL, visto que o nouveau ainda não tem suporte para VULKAN.

O primeiro jogo a ser testado foi o BioShock Infinite, que quando utilizado as GPUs GTX 680, GTX 780Ti e GTX 750 Ti (tecnologias Kepler e Maxwell1 respectivamente) a média de fps ficava na casa dos 60 fps utilizando o nouveau, mas quando ia para às GTX 980 e GTX 1080 não passavam dos 20 fps (tecnologias Maxwell e Pascal respectivamente).
Já quando foi utilizado o driver proprietário nas GPUs, o mínimo registrado foi de 100 fps com a GTX 750 Ti.



Outro jogo que foi utilizado, foi o popular moba Dota 2. Quando utilizado nouveau nas GPUs mais “antigas” se conseguiu uma média de 30 fps, já nas GPUs mais novas não passou dos 12 fps de média, utilizando o driver proprietário, foi mais que o dobro de ganho de FPS nas GPUs. A diferença fica visível nas GPUs mais novas.



Já nos jogos de código aberto, a situação é um pouco mais confortável para o nouveau, os jogos que ele se saiu bem foram: ET:Legacy v2.75; Xonotic v0.8.2 e The Tesseract v2014-05-12. Nesses games o driver open source ficou “colado”com o driver proprietário, conforme você pode ver nas imagens abaixo, mas ainda assim perdendo.








Para ver os testes completos, veja neste link do Phoronix.

Vai jogar no Linux com Nvidia? Instale o Driver proprietário

Com esses testes, podemos tirar algumas ideias sobre o driver open source, o nouveau. Caso você tenha uma GPU um pouco mais antiga, como as das séries 600 e 700, o desempenho em jogos fica no razoável, ainda que você não tenha suporte ao Vulkan, o que é uma grande perda para jogos mais recentes e para os que rodam via Proton e DXVK. Caso você tenha GPUs mais recentes, das séries 900 e 1000, o desempenho fica perto do injogável. 

Enquanto a NVIDIA não trabalhar junto com o pessoal do Nouveau, infelizmente ele ficará preso a GPUs antigas e tecnologias básicas, uma triste realidade. Ao menos a empresa oferece um driver proprietário que funciona corretamente e entrega um bom desempenho.
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Evoluções dos projetos DXVK, PROTON e WINE depois do apoio da Valve

Nenhum comentário

terça-feira, 16 de outubro de 2018

Desde o anúncio da Valve com a implementação do Proton, uma parceria feita com a CodeWeavers, várias melhorias vem acontecendo em outros projetos como o DXVK, WINE e o próprio VULKAN.

Evoluções dos projetos DXVK, PROTON e WINE depois do apoio da Valve






No começo do ano de 2018 fomos apresentados ao projeto DXVK, que a princípio faria uma camada de conversão entre a API DirectX 11 para o VULKAN, assim possibilitando que alguns jogos pudessem rodar no Linux, como por exemplo o  GTA V. E até meados de Julho o seu progresso era muito bom e vinha trazendo várias melhorias e correções de bugs que essa implementação acarreta.

Na mesma linha víamos o projeto VULKAN, API gráfica que concorre com a API da Microsoft, ganhando mais linhas de código, melhorias e correções de bugs que vinham melhorando a performance dos jogos que utilizam a API de forma nativa ou através do DXVK.

A outra ferramenta que veio ganhando melhorias aceleradas foi o projeto WINE (Wine is not an emulator), que até 2018, tinha implementações sendo “soltas” de forma pragmática e conservadora, sempre apostando no “jogo seguro” para não cometer erros.

Mas tudo isso mudou de forma rápida e positiva em meados de Julho, quando a Valve fez o anúncio bombástico do projeto Proton, que resumidamente, faria com que jogos feitos somente para Windows rodarem no Linux.

Com o anúncio do projeto Proton todos estes projetos cresceram de forma acelerada surpreendendo a cada lançamento. 

Primeiro foi o projeto VULKAN, que dá uma base sólida para todo o projeto Proton, que vem ganhando a cada lançamento mais e mais melhorias e implementações em seu código, chegando na versão 1.1 e marcando presença nas principais Engines do mercado como a CryEngine, idTech, Unity, Source e Unreal Engine. Com isso, as desenvolvedoras de jogos que optarem por usar VULKAN vão poder portar os seus jogos de forma “suave” para Linux e sem maiores transtornos, mesmo usando o projeto Proton.

Já o segundo que veio ganhando um aprimoramento acelerado foi o DXVK. Se no começo do ano ele dependia de uma equipe reduzida, hoje eles contam com o apoio da gigante da indústria dos Games,  Valve. Quando a Valve anunciou a sua ferramenta de compatibilidade, comentou que já vinha dando apoio para o pessoal do DXVK. Por isso que muitos da comunidade Linux viram o rápido crescimento do projeto. A última versão dele já tem suporte para DX10 e DX11, além de terem iniciado os testes para poder incorporar o DX9 ao projeto DXVK.

Por último e não menos importante, temos o WINE, o nosso “velho guerreiro” que sempre nos ajudou a rodar vários jogos e programas no passado e hoje tem um papel fundamental nessa nova era dos games no Linux. Ele tem papel fundamental pois a CodeWeavers (empresa por trás da versão comercial do Wine, o CrossOver) fechou parceria com a Valve e acelerou a versão do WINE para a Steam , e o projeto original que podemos usar gratuitamente vem se beneficiando diretamente por isso, visto que ultimamente tem saído várias versões do WINE e com um monte de melhorias vindo dos reports da Steam, fora os que a comunidade já reporta no site e fóruns do próprio WINE.

Para usar o VULKAN você vai precisar dos drivers mais recentes para a sua GPU, sendo Intel, AMD e NVIDIA.

Para AMD e Intel você precisa usar o Mesa Driver 18.1 ou posterior. Já para NVIDIA você vai precisar usar o Driver Proprietário nas versões mais recentes, as versões Beta. Até o momento está na versão 396.54.09 ou o 410.57.

Para saber mais sobre o projeto VULKAN, basta acessar o site deles. Para acompanhar o projeto DXVK, é só acompanhar eles no GitHub.

É muito legal ver essa evolução das ferramentas que venham a possibilitar os jogos para Linux e trazendo mais opções para os consumidores. Como falei em um Diolinux Friday Show, creio que a próxima a aderir ao projeto Proton é a Battlenet, dona do Overwatch, World of Warcraft e Diablo pois o catálogo dela é pequeno e mais fácil de administrar.

Mas agora conte aí nos comentários, o que você espera dessa evolução do projeto Proton e tudo aquilo que ele “Puxa” junto.

Um forte abraço e até a próxima.
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Como resolver o problema de screen tearing de placas híbridas no Ubuntu 18.04 LTS e no Mint 19

Nenhum comentário

quinta-feira, 19 de julho de 2018

Neste artigo vamos mostrar como consertar um problema bem chato que acontece quando instalamos o Ubuntu 18.04/Mint 19 em um notebook com placas de vídeo híbridas (Intel+Nvidia). O problema em si está relacionado ao momento da instalação do driver proprietário da Nvidia em notebooks com placas de vídeo híbridas que utilizam o PRIME para fazer a alternância entre os chip gráficos.







Para isso vamos fazer em 3 passos simples, não se preocupem.

Primeiro vamos abrir o terminal, você pode fazer isso utilizando a combinação de teclas Ctrl+Alt+T ou procurando por "terminal" no menu do seu sistema.

No terminal digite este comando:

sudo gedit /etc/modprobe.d/nvidia-drm-nomodeset.conf

Obs: No lugar do gedit pode ser o editor de texto da sua preferencia, como nano, vim, xed, kate e etc.

 Como resolver o problema de screen tearing de placas hibridas no Ubuntu 18.04 LTS e no Mint 19

Segundo, o editor vai se abrir permitindo que você digite (ou copiar e colar) o seguinte comando dentro dele:

options nvidia-drm modeset=1

Feito isso basta salvar o arquivo.

Depois vamos dar um update no initramfs e reinicializar o notebook. O comando para atualizar o initramfs é o:

sudo update-initramfs -u


 Como resolver o problema de screen tearing de placas hibridas no Ubuntu 18.04 LTS e no Mint 19

Terceiro, depois de reinicializar, vamos checar se o procedimento deu certo com o seguinte comando.

sudo cat /sys/module/nvidia_drm/parameters/modeset

Obs: A saída tem que ser Y.

 Como resolver o problema de screen tearing de placas hibridas no Ubuntu 18.04 LTS e no Mint 19


Uma dica extra é ir no "PowerMizer" no "Nvidia Settings" e colocar no "Preferred Mode" a opção "Prefer Maximum Performance". isso vai ajudar bastante também.

 Como resolver o problema de screen tearing de placas hibridas no Ubuntu 18.04 LTS e no Mint 19


Esse procedimento foi feito em um notebook Dell Inspiron 7559 - Core i5 6300HQ com chip graficos IntelGraphics HD 530 e NVDIA GTX 960M no Xubuntu 18.04 LTS e no Linux Mint 19.

Conte aí nos comentários se a dica ajudou você a solucionar esse problema. =)
Até uma próxima e um forte abraço.

_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Microsoft bloqueia atualização do Windows 10 em SSDs da Intel

Nenhum comentário

quinta-feira, 17 de maio de 2018

Semana passada já tínhamos relatado que a Microsoft encerrou o suporte do Windows 10 para as empresas. Se liguem nessa novidade agora.

atualizacao-do-windows-10-bloqueada-parassds-da-intel







Um dos grandes problemas causados pelo fim do suporte a uma versão do Windows 10 é o fato de que quem quiser continuar recebendo atualizações terá que desembolsar uma grana; mas este não foi o único problema. Durante o processo final para a disponibilização, descobriram um bug na atualização que causava tela azul, pessoas começaram a relatar problemas obrigando a empresa a tomar uma decisão mais drástica.

Microsoft está bloqueando atualizações do Windows em SSDs da Intel


Pois é, e o motivo para isso é que SSDs Intel das família 600p e Pro 6000p acabam travando a máquina no momento da inicialização do Windows. Esse é um problema que está relacionado ao firmware e isso pode acabar acontecendo no Windows 10 com qualquer do dispositivo que possua o mesmo firmware. Tanto que nos comentários do próprio site da Microsoft mencionam o mesmo problema com o SSD OCZ Vertex 4, tendo que por fim, formatar a máquina.

O problema ainda não tem solução e por esse motivo a Microsoft bloqueou a atualização para o dispositivo (atitude até sábia). Reza o site Global Mask que o único jeito de reverter a solução é pressionando F8 durante o processo de boot e retomar a ultima configuração válida. Mas de acordo com o comentário no site da Microsoft, a solução foi formatar a máquina.
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Intel deixará de produzir o seu instalador de drivers para Linux

Nenhum comentário

sexta-feira, 30 de março de 2018

A Intel anunciou que está descontinuando o software instalador de drivers da empresas para as distros Linux. O "Linux Graphics Update Tool" está obsoleto e deixará de ser produzido.

Intel aposenta instalador de drivers para Linux






Nós já falamos algumas vezes aqui no blog sobre esta ferramenta da Intel e de fato, ela já foi mais útil. Geralmente a empresa lançada drivers com suporte "oficial" apenas para Ubuntu e Fedora, no entanto, distros derivadas também podiam se beneficiar dela, ainda que necessitasse de alguns ajustes, como o Linux Mint.

Intel Drivers


A Intel anunciou que a ferramenta de atualização de drivers será descontinuada por um simples motivo, as distros Linux atualmente já estão conseguindo trazer a versão mais recente dos drivers da empresa no próprio Kernel Linux, eliminando a necessidade de uma ferramenta como esta.

Vale ressaltar que isso nada tem a ver com os drivers da Intel em si, eles continuam sendo desenvolvidos e otimizados normalmente, o que deixamos de ter a ferramenta de atualização, puramente por praticidade e falta de necessidade.

Em um "mundo ideal" esse tipo de coisa se tornaria mais comum, isso também vem acontecendo nos sistemas que usam o Kernel Linux quando o assunto é Driver AMD, enquanto isso, os drivers Nvidia, que tem um ótimo desempenho, ainda são instalados de outra forma.

Recomendo assistir a nossa entrevista com o Alfredo Heiss, representante da AMD aqui no Brasil, para entender melhor essa relação entre os drivers open source e o Linux:


O "modus operandi" do Linux de forma geral acaba gerando esse tipo de comportamento, ainda assim, alguns hardwares mais específicos ainda pode necessitar de suporte externo, enquanto que a maior parte tem suporte diretamente do Kernel, inclusive de atualizações para versões mais recentes.

Até a próxima!

Fonte
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


O problema com os Processadores Intel (AMD e ARM) é mais importante e perigoso do que você imagina!

Nenhum comentário

sexta-feira, 5 de janeiro de 2018

Nem só de boas notícias vive o blog e como segurança é a pauta da semana graças aos problemas de design com os processadores (especialmente Intel) colocando em risco os dados de praticamente todos os usuários, vamos olhar profundamente para o caso e analisar até onde esse erro pode nos afetar.

Eu te mostro a profundidade da toca do coelho





Como o assunto é extremamente complexo, eu chamei o meu amigo e especialista em segurança, Alberto Azevedo, para poder contar para você o tamanho do drama.

Se quiser conhecer um pouco melhor, confira o vídeo que fizemos na Campus Party de Pato Branco - PR no final do ano passo:



O mundo entrou em pânico nesta semana. A razão é simples, vieram à público duas vulnerabilidades extremamente graves que afetam virtualmente (praticamente) todos os processadores em uso no mundo! 

Logo que as informações foram divulgadas, chegaram outros ainda mais "desconcertantes". A primeira era de que a falha já havia sido comunicada aos fabricantes a nada menos do que SEIS meses e a segunda de que Brian Krzanich, CEO da Intel, "malandramente" vendeu nada menos que METADE de suas ações, ficando com o mínimo que ele legalmente poderia ficar quando soube das falhas há alguns meses atrás. 

A razão para as fabricantes estarem sabendo disso há tanto tempo e não terem feito nada (e Brian Krzanich ter feito o que fez) é simples: As falhas, e principalmente seus impactos e dificuldades no processo de correção, são muito mais graves do que você pode imaginar.

Começando pelo começo


O ano era 1946 e um matemático húngaro de nome John von Neumann, com sua equipe de pesquisadores no IAS (Princeton Institute for Advanced Studies), desenvolveu um novo modelo computacional onde uma máquina digital conseguia armazenar seus programas no mesmo espaço de memória que os dados, podendo assim manipular tais programas. Isso resolvia uma série de limitações que o modelo fixo, adotado até então, possuía. Isso porque até então os computadores não eram tão 'programáveis" até então, mas praticamente "desenhados" para a função para que eram designados. Eram concebidos os desenhos esquemáticos de como ele faria aquilo, isso era escrito, e pronto.

Seria como se você criasse um computador "capaz de fazer bolo de chocolate", ele teria a única e exclusiva capacidade de fazer bolo de chocolate pro resto da vida. Caso você quisesse mudar isso, ou "ensinar" ele a fazer um novo tipo de cobertura, você enfrentaria um processo extremamente penoso, em que seria preciso reprojetar a máquina como um todo, podendo levar semanas para criar um novo programa no ENIAC e voltar a trabalhar.

Diagrama computacional

O modelo de Von Neumann era revolucionário, mudava radicalmente a forma de como as coisas eram feitas e criava inúmeras novas possibilidades para a computação. Ele possibilita que a máquina tratasse as instruções recebidas e essa a capacidade de tratar as instruções como os dados é o que faz montadores, compiladores e outras ferramentas de programação automatizada possíveis. 

Era sensacional!

No entanto, haviam problemas e críticas, a primeira e mais óbvia mesmo à época era o gargalo. O canal de transmissão de dados entre a CPU e a memória leva ao que ficou conhecido como "gargalo de von Neumann". A troca de dados limitada (taxa de transferência) entre a CPU e a memória em relação à quantidade de memória era problemática desde aquela época. 

Na maioria dos computadores modernos, a troca de dados entre o processador e a memória é muito menor do que a taxa com que o processador pode trabalhar. Isso limita seriamente a velocidade de processamento, que poderia ser muito mais eficiente, principalmente quando o processador é exigido para realizar o processamento de grandes quantidades de dados. A CPU é constantemente forçada a esperar por dados que precisam ser transferidos para, ou a partir da, memória. Como a velocidade da CPU e o tamanho da memória têm aumentado muito mais rapidamente que a taxa de transferência entre eles, o gargalo se tornou mais um problema, um problema cuja gravidade aumenta com cada geração de CPU.

Uma vez que os programas estão sendo armazenados no mesmo espaço que os dados, alterar o programa pode ser extremamente prejudicial, quer por acidente ou uma falha no design, um programa com defeito pode alterar outros programas ou até mesmo o sistema operacional. Vários matemáticos, dentre eles Alan Turing, se opunham ao modelo de Von Neumann apontando as falhas matemáticas no processo e escreveram artigos propondo outros modelos, mas o envolvimento de Neumann no projeto Manhattan e projeto ENIAC, fez com que sua concepção para o EDVAC alcançasse maior circulação, e o resto é história.


Voltando ao problema atual dos processadores


Essa limitação na arquitetura que já causou inúmeros problemas que foram sendo mitigados/resolvidos ao longo do tempo, por exemplo, praticamente todas as vulnerabilidades de memória que tivemos nos últimos anos tiram proveito dessa escolha de design, hoje mostrou seu verdadeiro potencial destrutivo. 

Não estou culpando Von Neumann pela falha de hoje, os culpados são as centenas de engenheiros que vieram posteriormente e não tiveram peito para fazer o que vão ter que fazer agora. Um completo redesign e reestruturação da arquitetura face aos novos desafios e realidade da computação atual.

Isso porque (spoiler alert!), a vulnerabilidade que foi nomeada Spectre, a principio, simplesmente não pode ser corrigida com um patch!!!

Ela vai exigir um redesign dos processadores. Você está entendendo, caro leitor?
Virtualmente todos, eu repito, TODOS os processadores em uso no mundo hoje precisarão ser TROCADOS!!!! Está entendendo porque a toca do coelho é mais profunda? Esta entendendo porque os fabricantes não fizeram nada até agora, mesmo tendo tido seis meses para fazer? Bom, o Brian fez, vendeu todas as ações que ele podia, porque ele sabia há meses o que o mundo ficou sabendo agora. Veja, não existe nem capacidade de produção para realizar as trocas que precisam ser feitas. O assunto é muito sério.

Antes de continuarmos, vamos explorar e explicar rapidamente os problemas.

Os problemas


Meses atrás alguns pesquisadores de segurança independentes e outros dentro do projeto "Google Project Zero" descobriram duas vulnerabilidades nos processadores que foram chamadas de Meltdown e Spectre. Elas permitem que atacantes maliciosos roubem/acessem todo o conteúdo de memória de computadores, celulares, e servidores. A primeira, chamada de Meltdown, está limitada à processadores Intel e quebra o isolamento existente entre as aplicações do usuário e o sistema operacional. Você pode achar mais informações aqui, além de ver uma PoC aqui e aqui.

Para essa vulnerabilidade existem alguns patchs de correção que já estão sendo disponibilizados, porém elas causarão uma redução na capacidade de processamento que pode variar entre 5% e 30%. Ao passo que será um certo incomodo para o usuário final perder cerca de 30% da capacidade de processamento de sua estação, você, caro leitor, faz alguma ideia do impacto financeiro que isso significa para uma Amazon por exemplo? 

Amazon, Microsoft, Google, entre outros grandes players do mercado de cloud, terão prejuízos astronômicos porque de uma hora pra outra seu parque computacional simplesmente não acomodará mais o uso que vem sendo feito dele. Note que enquanto em seu computador, um atacante pode roubar informações suas, em um servidor virtualizado ele pode roubar informações de todas as pessoas/empresas que estão acomodadas naquele virtualizador. Estamos falando de senhas, dados, chaves de criptografia, qualquer coisa.

Agora veja que o patch de correção, embora exista para o caso do Meltdown, precisa ser aplicado por cada administrador de sistemas da terra em seu sistema operacional. Lembram do WannaCry? Aquela vulnerabilidade foi descoberta e já havia uma correção disponível há meses no Windows. 

Está entendendo o problema? 

Pior é que o Meltdown pode ser explorado por qualquer script-kiddie com acesso a um computador e dois neurônios funcionais.

Sobre a Spectre...


Já por sorte a exploração da Spectre é mais complexa de ser realizada, e digo sorte, porque como foi dito, teoricamente simplesmente não existe correção possível para a vulnerabilidade. Será necessário um redesign completo dos processadores e Intel, AMD e ARM teriam de fazer um recall completo de todos os processadores já fabricados, na pratica, os problemas serão resolvidos somente no próximo ciclo de vida dos hardwares, ou seja, sentiremos os efeitos pela próxima década. Basicamente o que ocorreu é que na ânsia e guerra pela performance e capacidade, as fabricantes se tornaram desleixadas com a segurança. Não é de hoje que isso é questionado por pesquisadores de segurança no mundo inteiro. Tanto que muitos equipamentos de missão crítica são equipados com os chamados processadores seguros. Processadores feitos por empresas como a Kryptus, empresa estratégica de defesa nacional pertencente aos amigos Gallo e Henrique e o seu Secure Crypto-processor (SCuP) ou os Secure Processors, fabricados pela Broadcom por exemplo.

A Spectre foi chamada dessa maneira pois explora o que chamamos de "capacidade de execução especulativa dos processadores". 
Processadores modernos usam técnicas como branch prediction e speculative execution para maximizar a performance. Lembram do gargalo do Von Neumann? Essas são algumas das técnicas adotadas pra tentar mitigar esse problema. Na prática se o destino dos dados de um branch dependem de dados que ainda estão sendo lidos na memória, a CPU vai tentar "especular" (adivinhar/prever) qual é esse destino e executar na frente. Quando os dados de fato chegarem, ela irá confirmar ou descartar essa previsão. O ataque consiste em abusar dessa capacidade especulativa dos processadores e induzir a vítima a realizar operações que não iriam ocorrer normalmente, o que leva ao vazamento de informações via side-channel. 

Você pode ver um exemplo de implementação aqui. Embora seja possível mitigar os efeitos da Spectre via micro-code, a solução só vai ocorrer através de um redesign dos processadores, o que absolutamente não ocorrerá de forma rápida. 

O problema é que na guerra entre segurança e velocidade, foram sendo feitas concessões em nome da performance. A conta está chegando agora.

A solução é trocar os CPUs


Finalizando


No fim das contas esse incidente pode trazer resultados positivos. O primeiro deve ser uma profunda reflexão por parte do mercado e do perigo em se ficar dependente de tão poucos fornecedores de hardware, veja, o mercado de processadores está literalmente nas mãos de três empresas. Somos totalmente dependentes delas, de suas vontades e de suas decisões. Outro benefício será uma maior atenção e importância a ser dada às questões de segurança. Esse dilema já é antigo, Segurança x Velocidade. 

"Se você tem um baú, colocar um cadeado nele o deixará mais seguro, mas vai levar mais tempo para abri-lo e fecha-lo todas as vezes que você precisar fazer isso durante o dia."

E nessa discussão até hoje a performance tem sempre vencido a segurança, pode ser que isso mude um pouco agora. Outra vantagem vai ser o fato de que tecnologias como Field-Programmable Gate Array (FPGA) e Complex Programmable Logic Device(CPLD) devem ganhar mais relevância, uma vez que apresentam muito mais recursos e possibilidades de personalização do que as tecnologias em uso hoje.

Resumindo, a solução não vai ser simples a Intel está claramente tentando acalmar os animos, mas a questão é muito séria. Como foi dito, a Meltdown pode ser explorada até pela minha filha de cinco anos, já a Spectre pode ser explorada por pessoal mais qualificado, por agentes do estado, ou patrocinados por ele. O que levanta a pergunta: Há quanto tempo você acha que a NSA, por exemplo, pode estar explorando essas falhas secretamente? Agora pense. 

Ambas as vulnerabilidades podem ser exploradas até mesmo via browser, como a Mozilla publicou e a correção de uma delas implica na perda de até 30% de performance e a outra não tem correção definitiva possível, a não ser a troca do processador, o que implicaria em um recall completo de todos os processadores já fabricados em uso e a sua substituição por novos com um redesign que nem existe ainda. 

Mesmo que as fabricantes estivessem dispostas a ir a falência para tentar fazer isso em tempo record, esse tecnologia ainda não foi criada, visto que um projeto completo de um novo processador pode levar anos, além disso, não temos capacidade de produção para esse volume. 

Consegue entender agora porque as fabricantes elas não fizeram nada de muito concreto nesses seis meses em que sabem das falhas? Consegue entender as implicações disso tudo?

Bem-vindo ao Cybergeddon!

Agradecimentos


Gostaria de deixar os meus cumprimentos e agradecimentos ao Alberto J. Azevedo pela abordagem clara e consiga, você pode ler alguns artigos que ele publica eventualmente no Medium, de hoje em diante, espere ver alguns conteúdos dele aqui no blog também, sejam autorais ou co-escritos.

Até a próxima!
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Bug dos processadores Intel pode afetar também processadores ARM e AMD

Nenhum comentário

quinta-feira, 4 de janeiro de 2018

Ontem nós publicamos aqui no blog uma notícia sobre um bug que afeta os processadores Intel dos últimos 10 anos, onde a correção para o problema poderia afetar consideravelmente o desempenho dos mesmos, em alguns casos causando até 30% de perda de potência.

Processadores com bug






Algumas horas depois, essa notícia repercutiu pelo mundo e as empresas, comunidades e desenvolvedores começaram a se manifestar. A Microsoft que, como tínhamos informado ontem, iria lançar a correção para o Windows na próxima Terça-feira, como de costume para este tipo de atualização, resolveu lançar um atualização de emergência hoje mesmo e ela já está disponível, assim como a correção para Linux, que saiu ainda ontem, para macOS, ainda não temos informações.

A Intel finalmente se pronunciou sobre o caso comentando que este problema pode afetar outros CPUs também, como os da AMD e os ARM, no entanto, não desmentiu o fato do problema de redução de desempenho.

Na noite de ontem o blog sobre segurança da Google comentou que o "Project Zero", programa da empresa que busca encontrar falhas em produtos de outras companhias também, entrou na jogada mostrando quais eram as falhas que foram detectadas e confirmou as informações da Intel, dizendo que a falha pode realmente comprometer processadores de outros fabricantes também, não somente os do "lado azul".

A AMD respondeu rápido a essas possibilidades, dizendo que seus engenheiros analisaram as falhas apontadas pela Google:

AMD Bug

Basicamente, a primeira das três variáveis de ataque pode ser corrigida via update de software e não deve afetar o desempenho dos chips, no segundo caso, a diferença de arquitetura parece não tornar os CPUs AMD como vetores para ataque e no último caso, existem diferenças nas arquiteturas dos processadores da AMD que impedem a falha de ser explorada, ou seja, para o "lado vermelho da força" de todos os males, ainda é o menor.

A ARM Holdings nãos e pronunciou sobre o caso ainda e a Intel diz estar trabalhando em correções de firmware que poderão ajudar aos desenvolvedores de sistemas operacionais a contornar o problema.

Segundo a Google, até mesmo os Chromebooks podem ser afetados, mas a correção para ele se dá em passos simples, basta garantir que ele esteja atualizado e ativar o seguinte parâmetro:

 chrome://flags/#enable-site-per-process

No dia 24 de Janeiro deve ser lançado o Chrome 64, juntamente com a atualização para o Chrome OS, o que deve resolver o problema nos equipamentos, no Android, o problema pode ser um pouco maior, visto a fragmentação de atualizações que existe caso o problema seja confirmado em processadores ARM, mas ainda não temos informações o suficiente para falar sobre isso, não ficou claro se essa falha afeta os processadores dos iPhones também.
Para mais informações fique ligado aqui no blog e sempre mantenha os seus sistemas operacionais atualizados.
Até a próxima!
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Correção em falha de processadores Intel pode acabar reduzindo o desempenho do CPU em até 30%

Nenhum comentário

quarta-feira, 3 de janeiro de 2018

O ano mal começou e a Intel já está tendo problemas de segurança com seus processadores. Os processadores Intel, tanto x86 quanto x64, fabricados nos últimos 10 anos podem ter seu desempenho fortemente afetado devido a necessidade de uma atualização a nível de kernel dos sistemas operacionais, sejam eles Windows, macOS ou Linux.

CPU Intel problemas de segurança










Geralmente esse tipo de problema é corrigido via update de firmware, mas desta vez isso não será o suficiente. Os desenvolvedores de sistemas operacionais terão de fazer alterações do Kernel para evitar a falha e isso pode acabar reduzindo a performance dos processadores da Intel em até 30%, variando de acordo com o modelo.
O problema não está completamente claro pois até o momento em que eu escrevo este artigo a Intel não se manifestou claramente sobre o caso. O que se sabe, até então, é que esse erro afeta a forma com que o Kernel dos sistemas operacionais  lidam com instruções do CPU, isso acaba fazendo com que o Kernel não consiga gerenciar corretamente as permissões de acesso, dando margem para que atacantes pudessem ter acesso ao user space do sistemas operacionais e conseguir acesso a senhas e informações sigilosas em muitos casos.

Além dos processadores convencionais de desktop, a falha também afeta processadores de servidores e ambientes em nuvem, como Amazon EC, Google Compute Engine e Microsoft Azure.

No Linux a atualização para corrigir a falha já está disponível, então apenas mantenha os seu sistema atualizado, logo a atualização deve chegar até você (se já não chegou), para Windows, a Microsoft deve lançar na próxima semana a atualização para a correção, a Apple parece estar trabalhando no caso também, mas  ainda não há previsão de quando a correção estará disponível para os usuários da "maçã".

Com a atualização, a ideal é que o Kernel não possa ser mais acessado por nenhum processo em execução, o que consequentemente irá aumentar o esforço do processador para executar os seus processos, impactando a performance, o que pode ter efeitos diferentes de CPU para CPU.

Para conseguir isso os desenvolvedores precisam separar completamente a memória do kernel do KPTI (Isolamento da Tabela de Página do Kernel). Esta atualização leva o Kernel a um endereço completamente separado, então, ele fica invisível para um processo em execução, evitando os ataques.

A AMD não perdeu a viagem e aproveitou, claro, para ressaltar que seus processadores estão livres dessa falha.

_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Blog Diolinux © all rights reserved
made with by templateszoo