Diolinux - O modo Linux e Open Source de ver o Mundo

Responsive Ad Slot

Mostrando postagens com marcador amd. Mostrar todas as postagens
Mostrando postagens com marcador amd. Mostrar todas as postagens

Intel declara que vai dar suporte ao Linux nas suas GPUs dedicadas

Nenhum comentário

terça-feira, 19 de fevereiro de 2019

A Intel vem se mostrando uma grande parceira ao Linux e do mundo open source, visto que a mesma, ao longo dos últimos anos, vem implementando suporte a novas tecnologias, como o Vulkan, aos seus processadores e GPUs integradas neles, e essa mesma dedicação pode ser esperada da nova empreitada da empresa, as GPUs dedicadas.


 Intel declara que vai dar suporte ao Linux nas suas GPUs dedicadas






Em uma publicação no Twitter, com uma das contas oficiais, a @IntelGraphics, a companhia declarou que tem o compromisso com a comunidade Open Source, e trará um suporte robusto para o Linux com às novas GPUs dedicadas que a empresa promete trazer para o mercado.


No mesmo tweet, a Intel disponibiliza um link com as implementações feitas para a tecnologia de “different memory regions” (regiões de memória diferentes, em tradução livre). Para saber mais sobre essa tecnologia, basta acessar o link acima citado.

Esse movimento da Intel em ter soluções em GPUs dedicadas, ainda que não saibamos qual será o público alvo, (arrisco a dizer que provavelmente será o público gamer e dos designers) vai trazer uma concorrência muito boa para o setor que durante muitos anos só teve duas opções de qualidade, AMD e Nvidia, e agora terá a chegada de mais um “player de peso” para concorrer e “disputar a tapas” às moedinhas dos consumidores a partir de 2020.

Agora saber onde essas GPUs entraram, para concorrer com quais setores e linhas de suas concorrentes.

E você, teria uma solução completa da Intel, CPU e GPU? Diga aí nos comentários.

Espero você no próximo post, forte abraço.

_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Aprenda a deixar o Ubuntu e o Linux Mint prontos para jogar!

Nenhum comentário

domingo, 3 de fevereiro de 2019

Muitos que chegam ao blog, no canal Diolinux e no grupo do Facebook, perguntam como preparar o seu computador para que se possa jogar tanto na Steam via Steamplay ou até mesmo em outras lojas, como Uplay, Origin, Battlenet e Epic Store. No post de hoje vamos mostrar o que você precisa instalar para rodar esses games.


 Aprenda a deixar o Ubuntu e o Linux Mint prontos para jogar!






Vamos começar com o básico, que é a verificação se a sua GPU tem suporte ao Vulkan, o que permitirá usar o DXVK para rodar os games, tanto pela Steam quanto nas outras lojas.

Logo abaixo você pode  consultar se a sua placa é compatível com Vulkan. É de suma importância que a sua GPU tenha suporte completo para o Vulkan, pois se não tiver, pode ser que o jogo não rode de forma satisfatória.




Depois disso vamos instalar o último driver para Nvidia e AMD/Intel. No primeiro caso precisamos usar o driver 415.27 e no segundo caso precisamos usar o Mesa Driver 18.3 para ter as últimas atualizações e implementações para Vulkan. Para instalar as últimas versões dos drivers, vamos deixar 2 links logo abaixo com o procedimento completinho de como fazer. Para o pessoal que usa AMD/Intel é recomendado o PPA do Padoka.




OBS: Estas são as versões dos drivers no momento da criação deste artigo, dependendo do momento da sua leitura, podem haver versões mais recentes, atente-se para esse detalhe.

Passos opcionais que podem melhorar a compatibilidade


Se você pretende usar o Steamplay, só a instalação dos drivers adequado já deve ser o suficiente, porém, se deseja utilizar uma ferramenta como o Lutris para rodar games de outras lojas, ainda que o Lutris se encarregue de fazer todos os ajustes geralmente, para aumentar o nível de compatibilidade é possível instalar alguns complementos ao Wine nativo do seu sistema.

Primeiro precisamos habilitar o suporte para arquitetura de 32 bits, isso é fácil de fazer vamos abrir o terminal e digitar (ou colar) o seguinte comando:

sudo dpkg --add-architecture i386

Agora vamos instalar o Wine-Stable pelo Synaptic e procurar por esses pacotes lá:

wine-stable (3.0-1ubuntu1) ; libwine (3.0-1ubuntu1) ; libewine-development (3.6-1) ; wine64 (3.0-1ubuntu1) ; wine64-development (3.6-1) ; wineprefix e fonts-wine

No caso do Linux Mint, você também pode procurar diretamente na loja de aplicativos, não precisando do Synaptic necessariamente, no Ubuntu, obrigatoriamente será necessário usar o Synpatic, ou então usar o terminal para instalar cada um dos pacotes usando o “apt”.

Agora vamos conferir se os pacotes do Vulkan estão instalados, se você estiver usando Nvidia, ao instalar o driver, o suporte à Vulkan é ativado, não sendo necessário outras medidas. Se você usa AMD ou Intel confira se o Mesa Driver instalou o pacote mesa-vulkan-drivers. Agora os pacotes:

libvulkan1 ; libvulkan1:i386 e vulkan-tools

Por via das dúvidas, caso você use Nvidia e queira conferir, procure por esses: libnvidia-gl-415 ; libnvidia-gl-415:i386

Depois de fazer esses procedimentos, foi possível rodar o jogo Mass Affect 2 via Origin no Lutris, confira o desempenho no vídeo abaixo, além do tutorial de instalação dos drivers passo a passo:

             

Para instalar o Lutris, depois de seguir esse tutorial, basta seguir o passo a passo deles. Outra alternativa é baixá-lo diretamente da loja de aplicativos na sua distro. 

Com esses pacotes instalados, você vai poder jogar os games que não estão na Steam, como os jogos da Uplay, Origin, Battlenet e Epic Store (tirando o Fortnite,  atualmente).

Feito isso é só acessar o site do pessoal do Lutris e procurar pelo seu jogo e rodar 🙂

             

Espero você no próximo post, forte abraço.
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Entroware anuncia Hades, um desktop poderoso com Ubuntu e AMD

Nenhum comentário

quarta-feira, 16 de janeiro de 2019

A empresa britânica Entroware não está para brincadeira e entrou de vez no mercado de computadores com Linux, mais precisamente com o Ubuntu, com opções poderosas e que fazem frente a grandes players do mercado, como Dell, Samsung, Acer, entre outras.


 Entroware anuncia  Hades, um desktop poderoso com Ubuntu e AMD






Recentemente a empresa apresentou ao mercado europeu o seu poderoso e elegante All-in-One Ares, com uma tela de 24” Full HD e com opções de processadores Intel de 8ª (do i3 ao i7). Fizemos uma matéria bem completinha e detalhando melhor ele, o post para conferir ele é esse.

Já o Entroware Hades é o primeiro desktop da empresa a ser oferecido com processadores da AMD da série Ryzen TR, indo do 1900x ao 2990WX, para placas de vídeo as opções também são vastas e devem se encaixar nos bolsos dos que estão querendo economizar, até aqueles que querem a performance mais bruta possível, indo desde de uma GT 1030 de 2GB, até um SLI de 2080 TI de 11GB (quanta ignorância hein :P ). Os sistemas operacionais disponíveis são Ubuntu 18.04 LTS (versão padrão, com Gnome) ou o Ubuntu MATE 18.04 LTS. A empresa oferece garantia de 3 anos nesse pequenino “torpedo”.

A configuração básica dele que custa £1,599.99, vem com:

Processador: Ryzen TR 1900X 3.8Ghz (8 cores, 16 Threads);
Memória Ram: 16GB DDR4 2933Mhz;
Armazenamento: SSD de 120GB SSD 
GPU: NVIDIA GeForce GT 1030 de 2GB 
Sistema Operacional: Ubuntu 18.04 LTS.

Já a versão mais cara do desktop sai pela bagatela de £6,224.91

Processador: Ryzen TR 2990WX 4.2Ghz (32 cores, 64 Threads);
Memória Ram: 128GB DDR4 2400Mhz ECC;
Armazenamento: SSD de 2TB
Armazenamento adicional: HD de 8TB
GPU: NVIDIA GeForce RTX 2080 Ti 11GB
Sistema Operacional: Ubuntu 18.04 LTS.
Monitor: Matte HD de 27”
Garantia: 3 anos Platinum
Mouse e Teclado da Logitech

Como o meu amigo e companheiro de blog, Henrique comentou, gostaria muito de poder por as mãos em uma belezinha dessas e poder ver qual o poderio que podem entregar com o Ubuntu pré-instalado, como a Dell faz com os computadores e notebooks do projeto Sputink.

Iniciativas como essas deveriam ser mais praticadas em terras “tupiniquins”, como as lojas de grandes varejos (Casas Bahia, Americanas, Magazine Luiza e entre outras) junto com as empresas, além da Dell, como Samsung, Acer, Lenovo e até a CCE (Positivo acho que nem no sonho mais otimista faria isso rs) fecharem alguma parceria com a Canonical e assim oferecer o Ubuntu pré-instalado nas suas máquinas (que seja bem instalado e não feito na “correria”). Pois uma das grandes barreiras do Linux crescer no Brasil, aconteceu em um passado recente, quando se teve o “Boom” da informática e as empresas para não venderem os computadores sem sistema operacional (a lei não permite) colocavam “qualquer Linux” para a galera ter o primeiro contato e isso acabou criando grandes obstáculos ao sistema, fazendo com que as pessoas corressem para o Windows (na sua grande parte partindo para a pirataria) e assim tornando o Linux aqui no Brasil algo “terrível de se usar”. Só para citar, nessa época poderiam ter colocado o saudoso Kurumin do Carlos Morimotto, que fez um trabalho primoroso. Mas isso é assunto para outro post 😁

Se você precisar de mais informações sobre o Entroware Hades e preços, pode conferir no site.

Espero você até o próximo post, um forte abraço.

_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Novo Kernel Linux chega com melhorias para GPUs da AMD

Nenhum comentário

segunda-feira, 14 de janeiro de 2019

Após a AMD começar a distribuir seu driver diretamente no Kernel Linux, donos de hardware da empresa vem recebendo melhorias de performance e novas implementações a cada versão. É notória a evolução do AMDGPU, driver Open Source, comparado a alternativa proprietária e descontinuada Catalyst/fglrx. Parece que a AMD vem dando maior atenção a plataforma Linux.

amd-gpu-freesync-linux-driver

Previsto para meados de Março deste ano, a versão 5.0 do Kernel Linux está repleta de novidades para usuários AMD. 

Uma delas é o suporte ao FreeSync e Adaptive-Sync, na qual auxilia a remoção de atrasos e variações nos framerates, adaptando dinamicamente a taxa de atualização. Resultando em uma gameplay fluida e sem inconvenientes, como: Tearing e “fantasmas”, os rastros de tela, na gameplay.

O FreeSync foi anunciado em 2014, para competir com seu concorrente G-Sync, tecnologia da Nvidia, que basicamente tem a função de sincronização adaptativa, evitando os “rasgos de tela”.

Já o Adaptive-Sync é uma especificação do DisplayPort e HDMI, desenvolvida pela organização internacional VESA, que tem como objetivo padronizar o funcionamento de periféricos de vídeo em computadores.

O FreeSync usa os protocolos do Adaptive-Sync em conjunto com hardware e software para proporcionar mais fluidez, livre de distorções e com baixa latência, em hardwares que o suportam. 

Outras tecnologias da AMD incorporadas ao Kernel 5.0 são: O Adaptive Backlight Management, que reduz o nível da luz de fundo, para economizar energia, aumentando o contraste e luminosidade do pixel para maior legibilidade e qualidade. E o ROCm, que é incumbido na interação entre CPU e GPU, aumentando o desempenho de tarefas computacionais.

O kernel trará suporte ao ROCm para processadores gráficos de entrada, da arquitetura Polaris, em placas de vídeo da série RX 400, e arquitetura Vega 12.

Com isso podemos esperar melhorias para utilizadores de GPUs AMD no Linux, com funcionalidades que antes não existiam no AMDGPU.

E você possui alguma placa de vídeo AMD? Tem ou gostaria de comprar um monitor com FreeSync? Deixe sua opinião nos comentários, queremos saber sua experiência com a plataforma AMD no Linux.

Até o próximo post, e lembre-se: Compartilhe as postagens do Diolinux, SISTEMATICAMENTE! 😎
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Driver Open Source da Nvidia - Vale a pena usar?

Nenhum comentário

segunda-feira, 17 de dezembro de 2018


Quem é recém chegado ao mundo Linux e utiliza NVIDIA pode ficar em dúvida sobre qual driver usar no seu equipamento, se o proprietário ou o de código aberto (chamado de Nouveau), e muitos provavelmente em um primeiro contato utilizam o nouveau, por ser o que vem por padrão no Kernel, tendo assim uma experiência nada agradável


Driver Open Source da Nvidia - Vale a pena usar?







Até descobrirem como instalar o driver proprietário de forma correta (que é mamão com açúcar) podem ficar chateados e até “com raiva” do sistema, assim não voltando mais a utilizar ele por causa de pequenos detalhes.


  • Falando em instalar drivers da NVIDIA de forma fácil, recentemente fizemos um post explicando melhor como fazer isso, vale a pena conferir. =)

De uns tempos para cá a solução open source para NVIDIA não vinha trazendo resultados satisfatórios, com perda de rendimento em games, renderização de vídeos e em alguns casos nem subindo o sistema operacional, como acontece nos notebooks com placas híbridas.

Também fizemos duas matérias falando sobre o sistema híbrido, uma comentando as novidades que virão à partir do Xorg 1.20 e o outra sobre como instalar o driver Linux (Ubuntu e Mint).


AMD e Intel


Quem utiliza AMD e Intel geralmente não se aborrece com esses “perrengues”, visto que os drivers de vídeo dessas empresas vêm embutidos diretamente no kernel e se precisar de uma versão mais nova, basta instalar o MESA Driver mais recente e receber os últimos updates. Também fizemos um artigo de como receber as versões do MESA.

Dito isso, sempre se especulou o quanto o driver open source “perdia” em relação ao proprietário, visto que a NVIDIA não facilita a vida dos desenvolvedores do Nouveau, liberando por exemplo o firmware com suporte ao PMU (Power Management Unit ou Unidade de Gerenciamento de Energia) entre outras features.

Testando o driver Open Source da Nvidia

Para tirar essa dúvida a limpo, o pessoal do site Phoronix, resolveu testar algumas placas de vídeo, primeiro com o driver proprietário da NVIDIA na versão 415 e depois com o Nouveau utilizando o Kernel Linux 4.19 e com o MESA 19.0-devel.

No caso do nouveau, eles precisaram fazer um re-clocked 0f em algumas placas para que o teste pudesse ser feito. As placas utilizadas foram: NVIDIA GeForce GTX 680 2GB (1066/3004MHz), NVIDIA GTX 750 Ti 2GB (1019/2700MHz), NVIDIA GTX 780 Ti 3GB (875/3500MHz), NVIDIA GTX 980 4GB (1126/3505MHz) e a NVIDIA GTX 1080 8GB (1607/5005MHz). O teste foi feito no Ubuntu 18.04.

No driver proprietário da NVIDIA, tinha o VULKAN 1.1 + OpenGL 4.6, enquanto que no nouveau só tinha o OpenGL 4.3.


Os jogos utilizados no teste foi limitado para aqueles que tinham suporte  para o OpenGL, visto que o nouveau ainda não tem suporte para VULKAN.

O primeiro jogo a ser testado foi o BioShock Infinite, que quando utilizado as GPUs GTX 680, GTX 780Ti e GTX 750 Ti (tecnologias Kepler e Maxwell1 respectivamente) a média de fps ficava na casa dos 60 fps utilizando o nouveau, mas quando ia para às GTX 980 e GTX 1080 não passavam dos 20 fps (tecnologias Maxwell e Pascal respectivamente).
Já quando foi utilizado o driver proprietário nas GPUs, o mínimo registrado foi de 100 fps com a GTX 750 Ti.



Outro jogo que foi utilizado, foi o popular moba Dota 2. Quando utilizado nouveau nas GPUs mais “antigas” se conseguiu uma média de 30 fps, já nas GPUs mais novas não passou dos 12 fps de média, utilizando o driver proprietário, foi mais que o dobro de ganho de FPS nas GPUs. A diferença fica visível nas GPUs mais novas.



Já nos jogos de código aberto, a situação é um pouco mais confortável para o nouveau, os jogos que ele se saiu bem foram: ET:Legacy v2.75; Xonotic v0.8.2 e The Tesseract v2014-05-12. Nesses games o driver open source ficou “colado”com o driver proprietário, conforme você pode ver nas imagens abaixo, mas ainda assim perdendo.








Para ver os testes completos, veja neste link do Phoronix.

Vai jogar no Linux com Nvidia? Instale o Driver proprietário

Com esses testes, podemos tirar algumas ideias sobre o driver open source, o nouveau. Caso você tenha uma GPU um pouco mais antiga, como as das séries 600 e 700, o desempenho em jogos fica no razoável, ainda que você não tenha suporte ao Vulkan, o que é uma grande perda para jogos mais recentes e para os que rodam via Proton e DXVK. Caso você tenha GPUs mais recentes, das séries 900 e 1000, o desempenho fica perto do injogável. 

Enquanto a NVIDIA não trabalhar junto com o pessoal do Nouveau, infelizmente ele ficará preso a GPUs antigas e tecnologias básicas, uma triste realidade. Ao menos a empresa oferece um driver proprietário que funciona corretamente e entrega um bom desempenho.
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Evoluções dos projetos DXVK, PROTON e WINE depois do apoio da Valve

Nenhum comentário

terça-feira, 16 de outubro de 2018

Desde o anúncio da Valve com a implementação do Proton, uma parceria feita com a CodeWeavers, várias melhorias vem acontecendo em outros projetos como o DXVK, WINE e o próprio VULKAN.

Evoluções dos projetos DXVK, PROTON e WINE depois do apoio da Valve






No começo do ano de 2018 fomos apresentados ao projeto DXVK, que a princípio faria uma camada de conversão entre a API DirectX 11 para o VULKAN, assim possibilitando que alguns jogos pudessem rodar no Linux, como por exemplo o  GTA V. E até meados de Julho o seu progresso era muito bom e vinha trazendo várias melhorias e correções de bugs que essa implementação acarreta.

Na mesma linha víamos o projeto VULKAN, API gráfica que concorre com a API da Microsoft, ganhando mais linhas de código, melhorias e correções de bugs que vinham melhorando a performance dos jogos que utilizam a API de forma nativa ou através do DXVK.

A outra ferramenta que veio ganhando melhorias aceleradas foi o projeto WINE (Wine is not an emulator), que até 2018, tinha implementações sendo “soltas” de forma pragmática e conservadora, sempre apostando no “jogo seguro” para não cometer erros.

Mas tudo isso mudou de forma rápida e positiva em meados de Julho, quando a Valve fez o anúncio bombástico do projeto Proton, que resumidamente, faria com que jogos feitos somente para Windows rodarem no Linux.

Com o anúncio do projeto Proton todos estes projetos cresceram de forma acelerada surpreendendo a cada lançamento. 

Primeiro foi o projeto VULKAN, que dá uma base sólida para todo o projeto Proton, que vem ganhando a cada lançamento mais e mais melhorias e implementações em seu código, chegando na versão 1.1 e marcando presença nas principais Engines do mercado como a CryEngine, idTech, Unity, Source e Unreal Engine. Com isso, as desenvolvedoras de jogos que optarem por usar VULKAN vão poder portar os seus jogos de forma “suave” para Linux e sem maiores transtornos, mesmo usando o projeto Proton.

Já o segundo que veio ganhando um aprimoramento acelerado foi o DXVK. Se no começo do ano ele dependia de uma equipe reduzida, hoje eles contam com o apoio da gigante da indústria dos Games,  Valve. Quando a Valve anunciou a sua ferramenta de compatibilidade, comentou que já vinha dando apoio para o pessoal do DXVK. Por isso que muitos da comunidade Linux viram o rápido crescimento do projeto. A última versão dele já tem suporte para DX10 e DX11, além de terem iniciado os testes para poder incorporar o DX9 ao projeto DXVK.

Por último e não menos importante, temos o WINE, o nosso “velho guerreiro” que sempre nos ajudou a rodar vários jogos e programas no passado e hoje tem um papel fundamental nessa nova era dos games no Linux. Ele tem papel fundamental pois a CodeWeavers (empresa por trás da versão comercial do Wine, o CrossOver) fechou parceria com a Valve e acelerou a versão do WINE para a Steam , e o projeto original que podemos usar gratuitamente vem se beneficiando diretamente por isso, visto que ultimamente tem saído várias versões do WINE e com um monte de melhorias vindo dos reports da Steam, fora os que a comunidade já reporta no site e fóruns do próprio WINE.

Para usar o VULKAN você vai precisar dos drivers mais recentes para a sua GPU, sendo Intel, AMD e NVIDIA.

Para AMD e Intel você precisa usar o Mesa Driver 18.1 ou posterior. Já para NVIDIA você vai precisar usar o Driver Proprietário nas versões mais recentes, as versões Beta. Até o momento está na versão 396.54.09 ou o 410.57.

Para saber mais sobre o projeto VULKAN, basta acessar o site deles. Para acompanhar o projeto DXVK, é só acompanhar eles no GitHub.

É muito legal ver essa evolução das ferramentas que venham a possibilitar os jogos para Linux e trazendo mais opções para os consumidores. Como falei em um Diolinux Friday Show, creio que a próxima a aderir ao projeto Proton é a Battlenet, dona do Overwatch, World of Warcraft e Diablo pois o catálogo dela é pequeno e mais fácil de administrar.

Mas agora conte aí nos comentários, o que você espera dessa evolução do projeto Proton e tudo aquilo que ele “Puxa” junto.

Um forte abraço e até a próxima.
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Novo driver Mesa 18.2 se destaca por dar melhor suporte para GPUs AMD

Nenhum comentário

sábado, 15 de setembro de 2018

Nos últimos tempos houve uma crescente onda jogos chegando ao Linux, ainda mais com a “forcinha” dada pela Valve via o Steamplay usando o Proton, fez com que o desenvolvimento dos drivers das empresas como Nvidia, Intel e AMD para a parte de GPUs dessem uma acelerada, algo como ir de 50km/h para 200km/h. Visto os recentes updates dos drivers da Nvidia, tanto na versão Stable quanto na versão Testing (Beta). 


 Novo driver Mesa 18.2 se destaca por dar melhor suporte para GPUs AMD






E essa evolução se faz necessária, pois a API Gráfica VULKAN vem evoluindo também, como o DxVk e os drivers precisam acompanhá-la.

Na semana passada foi anunciado de forma oficial a disponibilidadeo da nova versão do MESA Driver, chegando na versão 18.2 e contemplando usuários da Intel e AMD, visto que a Nvidia tem o driver proprietário deles.

As melhorias anunciadas para AMD foram tanto para DareonSI (OpenGL) quanto para RADV (Vulkan) e compatibilidade com a nova tecnologia Vega 20. Outras novidades foram:

-  Suporte para melhor compressão de texturas STC;
- Anti-aliasing Radeon EQAA;
- OpenGL ES 3.2 e OpenGL 4.4 no RadeonSI;
- Adição de novas extensões para o Vulkan;
- Melhoria na velocidade da compilação do shader LLVM no RADV;
- Adição de extensões com recursos adicionais para Realidade Virtual utilizando VULKAN.

Outra melhoria que foi apresentada é dedicada aquem precisa fazer virtualização de sistemas operacionais. Na versão 18.2.0 do Mesa, temos o OpenGL 4.3 para os driver VirGL quando usado KVM nas máquinas convidadas,ambém virá ativado o recurso Broadcom V3D por padrão, melhorando assim o suporte ao cache do shader no processamento de sombras no RadeonSI.

Já para Intel, as novidades foram menores mas tiveram como a otimização para NIR, inclusão do OpenGL 4.6 e SPIR-V e extensões adicionais  para o ANV e a implementação do VULKAN para IPG.

Se você quiser experimentar essas novidades no Ubuntu, Linux Mint e derivados, pode adicionar esse PPAs, temos alguns artigos aqui no blog mostrando como adicionar eles via interface gráfica caso você não goste de usar o terminal.



Existem dois repositórios PPA que lhe darão acesso às versões mais recentes do Mesa Driver, você pode escolher um dos dois e atualizar o seu sistema:

1 - O primeiro PPA é do pessoal do  “Ubuntu-X team” que ainda está na última versão estável, a 18.1, mas que vai chegar em breve, o PPA deles é o ppa:ubuntu-x-swat/updates

2 - A segunda opção é o “Padoka”, uns dos devs apoiados pela Valve, o PPA em questão atualiza os mesmos pacotes que o do Ubuntu-X Team:   ppa:paulo-miguel-dias/pkppa 

Alternativamente, se você quiser testar as novidades antes de todos, também é possível adicionar o PPA do repositório instável, recomendado apenas para usuários um pouco mais avançados que sabem se virar em caso de problemas:  ppa:paulo-miguel-dias/mesa

Caso você não use o computador para jogos o desempenho esteja satisfatório para você, mantenha o sistema como ele está, a atualização do Mesa Driver deverá chegar nativamente ao Ubuntu, Linux Mint e seus derivados assim que os desenvolvedores considerarem-no estável o suficiente.

Mantenha sempre o seu sistema atualizado, é de graça! :)
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Atari anuncia o seu novo console com base no Ubuntu

Nenhum comentário

quinta-feira, 31 de maio de 2018

Depois de um longo tempo de desenvolvimento a Atari anunciou a pré-venda de seu novo "Retro console",  o Atari VCS, saiba mais detalhes agora:

Atari + Ubuntu






A Atari anunciou ontem (Quarta-feira, 30 de Maio de 2018) a disponibilidade de pré-venda de seu console baseado em Linux, o chamado "Atari VCS" foi financiado através do IndieGOGO, arrecadando até o momento mais de 1 milhão e meio de dólares. Segundo as informações, o console da empresa carrega uma versão modificada do Ubuntu (muito provavelmente o 16.04 LTS), ao menos atualmente, como o lançamento da versão final do console será apenas em 2019, muito provavelmente o upgrade para a base 18.04 LTS ocorrerá.

Observando o hardware temos uma combinação curiosa: AMD+Linux.

O console carregará uma APU A10 Bristol Ridge com chip gráfico Radeon R7x, com versão com até 4GB de memória RAM DDR4 e armazenamento eMMC de 32 GB, suportando também cartões SD e dispositivos externos, como SSDs ou HDs. Além disso, a nível de periféricos, será possível conectar dispositivos via bluetooth e USB, como joysticks, mouses, teclados e webcam. Quem desejar poderá comprar também os joysticks clássicos do Atari ou comprar uma versão moderna, ambos vendidos separadamente por 30 e 50 dólares cada, respectivamente.


O console trará mais de 100 jogos clássicos do Atari carregados na biblioteca interna, mas os jogadores também poderão comprar mais títulos através da "Atari VCS Store', outra especulação que se faz é uma parceria com a Valve e com a GOG, ambas empresas que possuem games para Linux em seu catálogo para expandir ainda mais a biblioteca de jogos nativos do console.

Outro fator interessante deste console da Atari é que os usuários poderão customizá-lo como quiserem, instalando outros sistemas operacionais nele inclusive, há também um rumor de que os novos portes dos jogos da Atari serão exclusivos de Linux. O console será vendido em edições diferentes, possuindo caixas com e sem os controles com o valor começando em torno de 200 dólares.
Até a próxima!
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


O problema com os Processadores Intel (AMD e ARM) é mais importante e perigoso do que você imagina!

Nenhum comentário

sexta-feira, 5 de janeiro de 2018

Nem só de boas notícias vive o blog e como segurança é a pauta da semana graças aos problemas de design com os processadores (especialmente Intel) colocando em risco os dados de praticamente todos os usuários, vamos olhar profundamente para o caso e analisar até onde esse erro pode nos afetar.

Eu te mostro a profundidade da toca do coelho





Como o assunto é extremamente complexo, eu chamei o meu amigo e especialista em segurança, Alberto Azevedo, para poder contar para você o tamanho do drama.

Se quiser conhecer um pouco melhor, confira o vídeo que fizemos na Campus Party de Pato Branco - PR no final do ano passo:



O mundo entrou em pânico nesta semana. A razão é simples, vieram à público duas vulnerabilidades extremamente graves que afetam virtualmente (praticamente) todos os processadores em uso no mundo! 

Logo que as informações foram divulgadas, chegaram outros ainda mais "desconcertantes". A primeira era de que a falha já havia sido comunicada aos fabricantes a nada menos do que SEIS meses e a segunda de que Brian Krzanich, CEO da Intel, "malandramente" vendeu nada menos que METADE de suas ações, ficando com o mínimo que ele legalmente poderia ficar quando soube das falhas há alguns meses atrás. 

A razão para as fabricantes estarem sabendo disso há tanto tempo e não terem feito nada (e Brian Krzanich ter feito o que fez) é simples: As falhas, e principalmente seus impactos e dificuldades no processo de correção, são muito mais graves do que você pode imaginar.

Começando pelo começo


O ano era 1946 e um matemático húngaro de nome John von Neumann, com sua equipe de pesquisadores no IAS (Princeton Institute for Advanced Studies), desenvolveu um novo modelo computacional onde uma máquina digital conseguia armazenar seus programas no mesmo espaço de memória que os dados, podendo assim manipular tais programas. Isso resolvia uma série de limitações que o modelo fixo, adotado até então, possuía. Isso porque até então os computadores não eram tão 'programáveis" até então, mas praticamente "desenhados" para a função para que eram designados. Eram concebidos os desenhos esquemáticos de como ele faria aquilo, isso era escrito, e pronto.

Seria como se você criasse um computador "capaz de fazer bolo de chocolate", ele teria a única e exclusiva capacidade de fazer bolo de chocolate pro resto da vida. Caso você quisesse mudar isso, ou "ensinar" ele a fazer um novo tipo de cobertura, você enfrentaria um processo extremamente penoso, em que seria preciso reprojetar a máquina como um todo, podendo levar semanas para criar um novo programa no ENIAC e voltar a trabalhar.

Diagrama computacional

O modelo de Von Neumann era revolucionário, mudava radicalmente a forma de como as coisas eram feitas e criava inúmeras novas possibilidades para a computação. Ele possibilita que a máquina tratasse as instruções recebidas e essa a capacidade de tratar as instruções como os dados é o que faz montadores, compiladores e outras ferramentas de programação automatizada possíveis. 

Era sensacional!

No entanto, haviam problemas e críticas, a primeira e mais óbvia mesmo à época era o gargalo. O canal de transmissão de dados entre a CPU e a memória leva ao que ficou conhecido como "gargalo de von Neumann". A troca de dados limitada (taxa de transferência) entre a CPU e a memória em relação à quantidade de memória era problemática desde aquela época. 

Na maioria dos computadores modernos, a troca de dados entre o processador e a memória é muito menor do que a taxa com que o processador pode trabalhar. Isso limita seriamente a velocidade de processamento, que poderia ser muito mais eficiente, principalmente quando o processador é exigido para realizar o processamento de grandes quantidades de dados. A CPU é constantemente forçada a esperar por dados que precisam ser transferidos para, ou a partir da, memória. Como a velocidade da CPU e o tamanho da memória têm aumentado muito mais rapidamente que a taxa de transferência entre eles, o gargalo se tornou mais um problema, um problema cuja gravidade aumenta com cada geração de CPU.

Uma vez que os programas estão sendo armazenados no mesmo espaço que os dados, alterar o programa pode ser extremamente prejudicial, quer por acidente ou uma falha no design, um programa com defeito pode alterar outros programas ou até mesmo o sistema operacional. Vários matemáticos, dentre eles Alan Turing, se opunham ao modelo de Von Neumann apontando as falhas matemáticas no processo e escreveram artigos propondo outros modelos, mas o envolvimento de Neumann no projeto Manhattan e projeto ENIAC, fez com que sua concepção para o EDVAC alcançasse maior circulação, e o resto é história.


Voltando ao problema atual dos processadores


Essa limitação na arquitetura que já causou inúmeros problemas que foram sendo mitigados/resolvidos ao longo do tempo, por exemplo, praticamente todas as vulnerabilidades de memória que tivemos nos últimos anos tiram proveito dessa escolha de design, hoje mostrou seu verdadeiro potencial destrutivo. 

Não estou culpando Von Neumann pela falha de hoje, os culpados são as centenas de engenheiros que vieram posteriormente e não tiveram peito para fazer o que vão ter que fazer agora. Um completo redesign e reestruturação da arquitetura face aos novos desafios e realidade da computação atual.

Isso porque (spoiler alert!), a vulnerabilidade que foi nomeada Spectre, a principio, simplesmente não pode ser corrigida com um patch!!!

Ela vai exigir um redesign dos processadores. Você está entendendo, caro leitor?
Virtualmente todos, eu repito, TODOS os processadores em uso no mundo hoje precisarão ser TROCADOS!!!! Está entendendo porque a toca do coelho é mais profunda? Esta entendendo porque os fabricantes não fizeram nada até agora, mesmo tendo tido seis meses para fazer? Bom, o Brian fez, vendeu todas as ações que ele podia, porque ele sabia há meses o que o mundo ficou sabendo agora. Veja, não existe nem capacidade de produção para realizar as trocas que precisam ser feitas. O assunto é muito sério.

Antes de continuarmos, vamos explorar e explicar rapidamente os problemas.

Os problemas


Meses atrás alguns pesquisadores de segurança independentes e outros dentro do projeto "Google Project Zero" descobriram duas vulnerabilidades nos processadores que foram chamadas de Meltdown e Spectre. Elas permitem que atacantes maliciosos roubem/acessem todo o conteúdo de memória de computadores, celulares, e servidores. A primeira, chamada de Meltdown, está limitada à processadores Intel e quebra o isolamento existente entre as aplicações do usuário e o sistema operacional. Você pode achar mais informações aqui, além de ver uma PoC aqui e aqui.

Para essa vulnerabilidade existem alguns patchs de correção que já estão sendo disponibilizados, porém elas causarão uma redução na capacidade de processamento que pode variar entre 5% e 30%. Ao passo que será um certo incomodo para o usuário final perder cerca de 30% da capacidade de processamento de sua estação, você, caro leitor, faz alguma ideia do impacto financeiro que isso significa para uma Amazon por exemplo? 

Amazon, Microsoft, Google, entre outros grandes players do mercado de cloud, terão prejuízos astronômicos porque de uma hora pra outra seu parque computacional simplesmente não acomodará mais o uso que vem sendo feito dele. Note que enquanto em seu computador, um atacante pode roubar informações suas, em um servidor virtualizado ele pode roubar informações de todas as pessoas/empresas que estão acomodadas naquele virtualizador. Estamos falando de senhas, dados, chaves de criptografia, qualquer coisa.

Agora veja que o patch de correção, embora exista para o caso do Meltdown, precisa ser aplicado por cada administrador de sistemas da terra em seu sistema operacional. Lembram do WannaCry? Aquela vulnerabilidade foi descoberta e já havia uma correção disponível há meses no Windows. 

Está entendendo o problema? 

Pior é que o Meltdown pode ser explorado por qualquer script-kiddie com acesso a um computador e dois neurônios funcionais.

Sobre a Spectre...


Já por sorte a exploração da Spectre é mais complexa de ser realizada, e digo sorte, porque como foi dito, teoricamente simplesmente não existe correção possível para a vulnerabilidade. Será necessário um redesign completo dos processadores e Intel, AMD e ARM teriam de fazer um recall completo de todos os processadores já fabricados, na pratica, os problemas serão resolvidos somente no próximo ciclo de vida dos hardwares, ou seja, sentiremos os efeitos pela próxima década. Basicamente o que ocorreu é que na ânsia e guerra pela performance e capacidade, as fabricantes se tornaram desleixadas com a segurança. Não é de hoje que isso é questionado por pesquisadores de segurança no mundo inteiro. Tanto que muitos equipamentos de missão crítica são equipados com os chamados processadores seguros. Processadores feitos por empresas como a Kryptus, empresa estratégica de defesa nacional pertencente aos amigos Gallo e Henrique e o seu Secure Crypto-processor (SCuP) ou os Secure Processors, fabricados pela Broadcom por exemplo.

A Spectre foi chamada dessa maneira pois explora o que chamamos de "capacidade de execução especulativa dos processadores". 
Processadores modernos usam técnicas como branch prediction e speculative execution para maximizar a performance. Lembram do gargalo do Von Neumann? Essas são algumas das técnicas adotadas pra tentar mitigar esse problema. Na prática se o destino dos dados de um branch dependem de dados que ainda estão sendo lidos na memória, a CPU vai tentar "especular" (adivinhar/prever) qual é esse destino e executar na frente. Quando os dados de fato chegarem, ela irá confirmar ou descartar essa previsão. O ataque consiste em abusar dessa capacidade especulativa dos processadores e induzir a vítima a realizar operações que não iriam ocorrer normalmente, o que leva ao vazamento de informações via side-channel. 

Você pode ver um exemplo de implementação aqui. Embora seja possível mitigar os efeitos da Spectre via micro-code, a solução só vai ocorrer através de um redesign dos processadores, o que absolutamente não ocorrerá de forma rápida. 

O problema é que na guerra entre segurança e velocidade, foram sendo feitas concessões em nome da performance. A conta está chegando agora.

A solução é trocar os CPUs


Finalizando


No fim das contas esse incidente pode trazer resultados positivos. O primeiro deve ser uma profunda reflexão por parte do mercado e do perigo em se ficar dependente de tão poucos fornecedores de hardware, veja, o mercado de processadores está literalmente nas mãos de três empresas. Somos totalmente dependentes delas, de suas vontades e de suas decisões. Outro benefício será uma maior atenção e importância a ser dada às questões de segurança. Esse dilema já é antigo, Segurança x Velocidade. 

"Se você tem um baú, colocar um cadeado nele o deixará mais seguro, mas vai levar mais tempo para abri-lo e fecha-lo todas as vezes que você precisar fazer isso durante o dia."

E nessa discussão até hoje a performance tem sempre vencido a segurança, pode ser que isso mude um pouco agora. Outra vantagem vai ser o fato de que tecnologias como Field-Programmable Gate Array (FPGA) e Complex Programmable Logic Device(CPLD) devem ganhar mais relevância, uma vez que apresentam muito mais recursos e possibilidades de personalização do que as tecnologias em uso hoje.

Resumindo, a solução não vai ser simples a Intel está claramente tentando acalmar os animos, mas a questão é muito séria. Como foi dito, a Meltdown pode ser explorada até pela minha filha de cinco anos, já a Spectre pode ser explorada por pessoal mais qualificado, por agentes do estado, ou patrocinados por ele. O que levanta a pergunta: Há quanto tempo você acha que a NSA, por exemplo, pode estar explorando essas falhas secretamente? Agora pense. 

Ambas as vulnerabilidades podem ser exploradas até mesmo via browser, como a Mozilla publicou e a correção de uma delas implica na perda de até 30% de performance e a outra não tem correção definitiva possível, a não ser a troca do processador, o que implicaria em um recall completo de todos os processadores já fabricados em uso e a sua substituição por novos com um redesign que nem existe ainda. 

Mesmo que as fabricantes estivessem dispostas a ir a falência para tentar fazer isso em tempo record, esse tecnologia ainda não foi criada, visto que um projeto completo de um novo processador pode levar anos, além disso, não temos capacidade de produção para esse volume. 

Consegue entender agora porque as fabricantes elas não fizeram nada de muito concreto nesses seis meses em que sabem das falhas? Consegue entender as implicações disso tudo?

Bem-vindo ao Cybergeddon!

Agradecimentos


Gostaria de deixar os meus cumprimentos e agradecimentos ao Alberto J. Azevedo pela abordagem clara e consiga, você pode ler alguns artigos que ele publica eventualmente no Medium, de hoje em diante, espere ver alguns conteúdos dele aqui no blog também, sejam autorais ou co-escritos.

Até a próxima!
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Saiba mais sobre o suporte futuro da AMD no Linux

Nenhum comentário
AMD e Linux são duas coisas que costumavam não se dar muito bem, pelo menos não quando o assunto era "placas de vídeo", mas com o tempo, a postura da empresa mudou de forma radical, tornando-se uma empresa que suporta vários projetos de código aberto.

Linux e AMD






Com o lançamento do Kernel Linux 4.15, nós teremos a inclusão 130 mil linhas de código provindas da AMD, essas melhorias devem melhorar a compatibilidade e performance dos produtos da empresa com o sistema do pinguim.

Para você entender um pouco melhor a relação da empresa com o mundo Linux nós entrevistamos Alfredo Heiss, representante da AMD no Brasil. Na entrevista nós conversamos sobre o suporte a driver para placas de vídeo pelo Kernel e como a empresa trabalha com projetos de código aberto.



Será que finalmente teremos um suporte equivalente ao da Nvidia no Linux? 2018 está só começando e promete muito!

Deixe a sua opinião nos comentários e até a próxima!
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Bug dos processadores Intel pode afetar também processadores ARM e AMD

Nenhum comentário

quinta-feira, 4 de janeiro de 2018

Ontem nós publicamos aqui no blog uma notícia sobre um bug que afeta os processadores Intel dos últimos 10 anos, onde a correção para o problema poderia afetar consideravelmente o desempenho dos mesmos, em alguns casos causando até 30% de perda de potência.

Processadores com bug






Algumas horas depois, essa notícia repercutiu pelo mundo e as empresas, comunidades e desenvolvedores começaram a se manifestar. A Microsoft que, como tínhamos informado ontem, iria lançar a correção para o Windows na próxima Terça-feira, como de costume para este tipo de atualização, resolveu lançar um atualização de emergência hoje mesmo e ela já está disponível, assim como a correção para Linux, que saiu ainda ontem, para macOS, ainda não temos informações.

A Intel finalmente se pronunciou sobre o caso comentando que este problema pode afetar outros CPUs também, como os da AMD e os ARM, no entanto, não desmentiu o fato do problema de redução de desempenho.

Na noite de ontem o blog sobre segurança da Google comentou que o "Project Zero", programa da empresa que busca encontrar falhas em produtos de outras companhias também, entrou na jogada mostrando quais eram as falhas que foram detectadas e confirmou as informações da Intel, dizendo que a falha pode realmente comprometer processadores de outros fabricantes também, não somente os do "lado azul".

A AMD respondeu rápido a essas possibilidades, dizendo que seus engenheiros analisaram as falhas apontadas pela Google:

AMD Bug

Basicamente, a primeira das três variáveis de ataque pode ser corrigida via update de software e não deve afetar o desempenho dos chips, no segundo caso, a diferença de arquitetura parece não tornar os CPUs AMD como vetores para ataque e no último caso, existem diferenças nas arquiteturas dos processadores da AMD que impedem a falha de ser explorada, ou seja, para o "lado vermelho da força" de todos os males, ainda é o menor.

A ARM Holdings nãos e pronunciou sobre o caso ainda e a Intel diz estar trabalhando em correções de firmware que poderão ajudar aos desenvolvedores de sistemas operacionais a contornar o problema.

Segundo a Google, até mesmo os Chromebooks podem ser afetados, mas a correção para ele se dá em passos simples, basta garantir que ele esteja atualizado e ativar o seguinte parâmetro:

 chrome://flags/#enable-site-per-process

No dia 24 de Janeiro deve ser lançado o Chrome 64, juntamente com a atualização para o Chrome OS, o que deve resolver o problema nos equipamentos, no Android, o problema pode ser um pouco maior, visto a fragmentação de atualizações que existe caso o problema seja confirmado em processadores ARM, mas ainda não temos informações o suficiente para falar sobre isso, não ficou claro se essa falha afeta os processadores dos iPhones também.
Para mais informações fique ligado aqui no blog e sempre mantenha os seus sistemas operacionais atualizados.
Até a próxima!
_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Correção em falha de processadores Intel pode acabar reduzindo o desempenho do CPU em até 30%

Nenhum comentário

quarta-feira, 3 de janeiro de 2018

O ano mal começou e a Intel já está tendo problemas de segurança com seus processadores. Os processadores Intel, tanto x86 quanto x64, fabricados nos últimos 10 anos podem ter seu desempenho fortemente afetado devido a necessidade de uma atualização a nível de kernel dos sistemas operacionais, sejam eles Windows, macOS ou Linux.

CPU Intel problemas de segurança










Geralmente esse tipo de problema é corrigido via update de firmware, mas desta vez isso não será o suficiente. Os desenvolvedores de sistemas operacionais terão de fazer alterações do Kernel para evitar a falha e isso pode acabar reduzindo a performance dos processadores da Intel em até 30%, variando de acordo com o modelo.
O problema não está completamente claro pois até o momento em que eu escrevo este artigo a Intel não se manifestou claramente sobre o caso. O que se sabe, até então, é que esse erro afeta a forma com que o Kernel dos sistemas operacionais  lidam com instruções do CPU, isso acaba fazendo com que o Kernel não consiga gerenciar corretamente as permissões de acesso, dando margem para que atacantes pudessem ter acesso ao user space do sistemas operacionais e conseguir acesso a senhas e informações sigilosas em muitos casos.

Além dos processadores convencionais de desktop, a falha também afeta processadores de servidores e ambientes em nuvem, como Amazon EC, Google Compute Engine e Microsoft Azure.

No Linux a atualização para corrigir a falha já está disponível, então apenas mantenha os seu sistema atualizado, logo a atualização deve chegar até você (se já não chegou), para Windows, a Microsoft deve lançar na próxima semana a atualização para a correção, a Apple parece estar trabalhando no caso também, mas  ainda não há previsão de quando a correção estará disponível para os usuários da "maçã".

Com a atualização, a ideal é que o Kernel não possa ser mais acessado por nenhum processo em execução, o que consequentemente irá aumentar o esforço do processador para executar os seus processos, impactando a performance, o que pode ter efeitos diferentes de CPU para CPU.

Para conseguir isso os desenvolvedores precisam separar completamente a memória do kernel do KPTI (Isolamento da Tabela de Página do Kernel). Esta atualização leva o Kernel a um endereço completamente separado, então, ele fica invisível para um processo em execução, evitando os ataques.

A AMD não perdeu a viagem e aproveitou, claro, para ressaltar que seus processadores estão livres dessa falha.

_____________________________________________________________________________
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, clique aqui.


Blog Diolinux © all rights reserved
made with by templateszoo