Tem sido bastante difícil pra mim manter meu site atualizado, e não estou conseguindo manter meu ritmo de ao menos 1 post por semana. Sinal de trabalho duro em outras coisas.
Estava pra comentar sobre esse assunto espinhoso, dos vírus pra Linux, faz um certo tempo. Ao menos desde o início do ano. Mas... enfim consegui um momento livre pra eu poder fazer isso.
A pergunta que surge de tempos em tempos é clara: EXISTEM VÍRUS PRA LINUX?
As respostas variam. Defensores de Windows dizem que com toda certeza existem. Mostram receitas esotéricas sobre como isso é possível e sempre voltam com a famosa frase "nenhum sistema é infalível", ou algo parecido com isso.
Os defensores de Linux, eu me incluo nesse grupo, dizem que é impossível. Linux não é Windows. Não foi feito sobre a mesma plataforma furada da Microsoft, que é cheia de buracos, e até provavelmente com alguns toques da NSA pra ajudar. Se o usuário do Linux tem algum problema, o motivo é que não sabe atualizar sua distro.
Mas isso não explica a quantidade de problemas que têm aparecido sobre malwares em plataformas Linux, inclusive Android.
O problema é o windows. Não que o windows tenha criado uma geração de vírus, mas o windows cunhou fortemente o conceito errado de que tudo é vírus. Todo problema, malware, tudo é vírus. E também foi graças ao windows que o conceito "se não funcionar, reinstala, se está lento, reinstala, e se quer mudar o wm, reinstala" se fortaleceu. Isso se faz bem claro nos usuários que, pra trocar o Unity no Ubuntu, reinstalam o sistema inteiro. Em geral com alguma refisefuqui.
Vírus é um pedaço de código que altera binários ou arquivos, e que se executa cada vez que esse programa é chamado ou aberto, no caso de arquivos.
Claramente isso não é possível no Linux por um simples motivo: quem executa o programa é o usuário e quem é o "dono" do binário é em geral o root.
Mas os problemas existem. E muitos. Existem os usuários que teimam em trabalhar como root no sistema, pra "facilitar as coisas". Em geral os mesmos que reinstalam os sistema inteiro pra apenas trocar o wm (window manager). Existem também os "programas de terceiros", como o plugin flashplayer, que não recebem as devidas atualizações de segurança. Felizmente esses "programas de terceiros" não causam danos ao sistema como um todo, mas infelizmente podem fazer estrago o suficiente com o usuário, como permitir que suas credenciais de banco sejam roubadas. Basta ver os recentes problemas do Java da Oracle. Recentes? Melhor dizer "contínuos".
E dá pra viver sem esses "aplicativos de terceiros"? Até dá, mas não é muito fácil. Alternativas existem, como pepperflashplugin ao invés do flash da Adobe, não usar acrobat reader ou seu plugin, mas os modos nativos do Firefox e do Chrome/Chromium pra renderizar pdf, etc. O problema não são os "aplicativos de terceiros", mas se esses terceiros tratam os usuários de Linux com respeito, atualizando a cada falha encontrada. Um bom exemplo dessa prática é o "steam", de jogos.
O problema então é o usuário, sempre?
Não. Novamente o problema vem do windows. Ou melhor, da idéia de vírus que veio com o uso do windows. Quando discutimos o conceito de vírus, sempre nos vem a imagem de um desktop. Daí os argumentos de problemas de segurança no Linux são apenas falta de atualização. Isso não é verdade.
O outro lado do problema apareceu bem recentemente durante os ataques de DDoS do grupo LizzardSquad contra as redes de jogos PSN e Xbox Live.
Foram usados roteadores caseiros, desses que usamos pra ter acesso wi-fi as nossas redes dentro de casa. O artigo não diz, mas acredito que câmeras IPs também foram usadas.
Esse tipo de problema não é novidade. Foi discutido durante um dos YSTS, acho que o de 2013 que participei. fabricantes, em geral na China, criam seus produtos pra rodar Linux, mas não dão nenhuma manutenção. São sistemas customizados a ponto de ser impossível de rodar uma alternativa como dd-wrt/open-wrt. Esses sistemas rodam kernels Linux muito, mas muito velhos. Daí que as explorações de vulnerabilidades, não vírus, ficam fáceis. Nesse ponto temos de dar o braço a torcer pros usuários de windows. Defender Linux nessas condições é quase como apontar o dedo pras máquinas windows comprometidas que rodam a versão XP. O agravante é que o usuário se torna refém do fabricante, pois diferente dos computadores, esses sistemas embutidos não permitem que qualquer um atualize como quer, quando quiser, com a distro que mais gostar.
Então da próxima vez que ler sobre "vírus pra Linux", antes de cair na gargalhada, pense nesses roteadores e câmeras IPs. Pense se esses sistemas rodando um Linux 2.4.20 não pode ter sua segurança facilmente comprometida. Depois lembre que Windows, até hoje, pode ser comprometido acessando uma página web. Foi corrigido? Espere algumas semanas que sempre aparece de novo.
Ah... o windows...
Em geral as análises do ano que se vai acontece na semana logo após o Natal, lá pelo dia 27 ou 28 de dezembro. Mas como minha árvore de Natal continua imponente na sala, mostrando que o Natal só termina quando acaba, o que deve ocorrer lá pra março pelos meus cálculos, acho que ainda estou em tempo de publicar como foi o ano do site durante 2014.
Como todo ano, tive uns altos e baixos no tráfego. Não foi um outage, mas eu que mudei o template do site e esqueci de carregar e ativar o módulo de estatísticas, que faço com o j4age que já publiquei sobre no post j4age, a evolução do joomlastats. Mas é possível ver que a média de acessos é por volta de 100 views/dia, o que está bom demais pra um site que não recorre à publicidade paga pra aparecer mais.
Windows continua firme e forte na primeira posição, mesmo eu não escrevendo absolutamente nada sobre ele. Mas apesar disso, acredito que são pessoas conscientes de seus erros e que pensam em mudar logo. Assim espero.
Surpresa foi o MacOSX figurar na segunda posição. Esse é um novo fenômeno.
E Linux surgindo na contagem com 10% dos acessos, mais o Ubuntu, com 7,5%. Com isso já são quase 20% dos acessos a partir de Linux, ou melhor GNU/Linux, pois existem mais os acessos a partir de Android, que são Linux mas não são GNU.
E Nokia. Com mais acesso que FreeBSDs. Nokia. Essa foi uma supresa.
Agora a estatística de acesso de navegadores ficou melhor, colocando todos os Firefox em uma só categoria. A tendência que já tinha visto em 2013, do Chrome despontando, se mostra clara. Internet Explorer despencou pra 3º posição, que ainda acho muito.
Sem muitas surpresas. Uma vez que muitos links direcionam pro site, os mais acessados são sempre links da página principal. Dá pra ver que existe uma certa procura por assuntos técnicos, principalmente python, e algum interesse por assuntos com mais opinião que informação. E o bom e velho #XGH.
Uma coisa que ainda domina bastante os tráfegos é informação sobre hardware antigo, mais precisamente o post que fiz sobre o uso de FreeBSD num compaq que eu tinha. Artigo de 2006 ou 2007. E continua tendo acessos.
Notadamente o tráfego pro meu site vem de pesquisas diretas do Google. Então o que seria de mim sem o Google? Não posso reclamar.
Esse é o ano que já começo numa vida nova, morando fora do Brasil. Tenho tido muito mais contato com a área de desenvolvimento e Linux que qualquer outro momento de minha vida. E espero ter tempo pra escrever por aqui. Mas... ao mesmo tempo que tecnicamente estou mais próximo do que gosto, também tenho mais desafios. Tenho cuidado de palestras internas e desenvolvimento de Linux como desktop na empresa. Infelizmente coisa que não tem como eu divulgar muito já que é inerente ao trabalho, mas que posso o conhecimento usar pra escrever por aqui.
E agora estou me aventurando bastante com raspberrypi. Logo devo incluir alguns scripts e dicas de uso do mesmo. Esse deve ser o ano de 2015, que pelas estatísticas de acesso não deve ser ainda o ano do Linux. Ainda.
A Priscila (@MayogaX) foi uma das pessoas que reclamou que eu tinha uma seção aqui sobre bancos de dados, mas nada escrito. Acho que finalmente chegou o momento de ter alguma coisa ;-)
Mantenho o maravilhoso e ultra moderno encurtador eri.cx, que agora passou a sofrer ataques constantes. Chato? É, mas ataque na Internet já virou lugar comum. Então temos de estar preparados. Sempre. O foco só mudou, pois antes esse tipo de ataque vinha por mail, com os SPAMs.
Entre os muitos scripts que tenho, tem um que verifica por alguns padrões de palavras como "cialis", "tramadol", "xanax" e "taladafil". Não tenho idéia do que sejam. Aliás o "xanax" dá uma certa idéia.
O que me faz pensar que esses links não são legítimos? Perfil de tráfego. São links que o número de cliques aumenta muito rápido. Com isso eu tenho uns scripts que fazem algumas verificações, inclusive com palavras chaves como essas. Se o link entra nesse perfil, eu removo pra uma tabela chamada "quarantine", salvando exatamente o formato de entrada. Em seguida eu troco pro meu próprio site. É uma propaganda subversiva, mas é mais legítimo que permitir que as pessoas caiam nesse truques.
Hoje eu resolvi dar uma olhada nos ataques, aliás nos logs dos ataques, e procurar um perfil. Então eu precisava pegar os IPs e procurar um padrão. Basicamente pegar via SQL os IPs, e fazer um count() na quantidade de vezes que apareciam e apenas mostrar aqueles que um padrão acima do normal.
O resultado foi esse aqui:
mysql> select ip, count(ip) as ip_count from quarantine group by ip having count(ip) > 10 order by count(ip) desc;
+---------------+----------+
| ip | ip_count |
+---------------+----------+
| 173.44.37.250 | 168 |
| 96.47.224.50 | 139 |
| 173.44.37.226 | 136 |
| 173.44.37.242 | 121 |
| 96.47.224.42 | 118 |
| 96.47.225.82 | 117 |
| 173.44.37.234 | 115 |
| 96.47.225.74 | 112 |
| 96.47.225.66 | 110 |
| 96.47.224.58 | 100 |
| 213.5.66.88 | 89 |
| 96.47.225.162 | 71 |
| 96.47.225.170 | 69 |
| 96.47.225.186 | 69 |
| 96.47.225.178 | 67 |
+---------------+----------+
15 rows in set (0.01 sec)
Com isso foi fácil ver um padrão claro de ataque de apenas alguns ranges IPs. Bastou uma pequena adição ao iptables pra acabar com a farra.
Começando 2015, todos se lembram de como foi 2014. Então resolvi escrever com um artigo sobre memória :)
Durante umas das discussões no grupo SOSLinux, alguém postou que já não usava Linux com swap fazia um tempo. Nos meus velhos conceitos Unix adquiridos no século passado isso era algo inconcebível. Uma heresia. Um motivo pra receber um belo dum RTFM.
Esse é o problema de ter "aquela mesma velha opinião formada sobre tudo", como dizia Raul Seixas. As coisas mudam. Os sistemas evoluem. Aquela recomendação de sempre se ter swap, e com fórmulas mágicas sobre seu tamanho, são coisas do passado, de uma era em que Linux era pra servidores e desktops. Agora Linux está em todo lugar. Na minha TV, no meu telefone, no meu tablet, e vai saber mais onde. Talvez já esteja até no meu café e eu ainda não saiba.
Mas o fato é que naquela época a idéia era que as máquinas seriam cada vez maiores, mais potentes, mais gigantes, mais mais, muito mais. Na verdade até são. Mas aconteceu um fato interessante: o cloud. Esse conceito permitiu uma forma de computação mais distribuída, com vários pequenos computadores ao invés de somente um maior. E esse conceito foi se espalhando. Se pensarmos hoje em dia nos celulares, eles são uma extensão computacional de algo que roda num datacenter. Temos uma parte do aplicativo rodando localmente, e outra parte na nuvem.
Nesse novo paradigma, não é preciso tanto swap quanto antes. Meu laptop tem 8 GB de RAM (tinha 12 GB com um pente extra de 4 GB que comprei no Dealextreme, mas o danado teima em dar problema de acesso e travar), mais que suficiente pra muita coisa.
Então resolvi experimentar.
Desabilitei o swap (swapoff /dev/mapper/vg-swap) e comentar a linha que o habilitava durante o boot no /etc/fstab. E funcionou. Mas bastou abrir chrome, firefox, thunderbird e eclipse pra coisa ficar feia (claro que a culpa é do java).
root@elx3030vlm-78:vm# head -16 /proc/meminfo MemTotal: 7926776 kB MemFree: 218640 kB MemAvailable: 889676 kB Buffers: 57568 kB Cached: 750036 kB SwapCached: 0 kB Active: 6672176 kB Inactive: 404504 kB Active(anon): 6282356 kB Inactive(anon): 55548 kB Active(file): 389820 kB Inactive(file): 348956 kB Unevictable: 65852 kB Mlocked: 65852 kB SwapTotal: 0 kB SwapFree: 0 kB
Quando chega próximo do limite de memória, eu simplesmente tenho de aguardar o kernel decidir matar alguma coisa pra eu conseguir mandar um comando. Até fiz um vídeo pra mostrar a situação.
{youtube}ga8lG2xE7wc{/youtube}
Nessas ocasiões a carga do sistema vai às alturas, provavelmente por troca de contexto de processos no kernel, tentando achar memória onde não tem.
Quando isso acontece, uma mudança do ambiente gráfico pro console e um reinicio do mesmo resolve. Mas é chato.
Esses são os load averages que consegui enquanto gerava o vídeo acima:
12:51:51 up 21:12, 6 users, load average: 36.61, 59.21, 75.31 13:01:24 up 21:21, 6 users, load average: 57.21, 51.78, 61.71 13:29:59 up 21:50, 6 users, load average: 110.99, 122.08, 107.70
Então melhor com swap? Não é tanto assim. O sistema evoluiu, mas o problema de gerenciamento de memória é coisa do Linux. Com swap esse tipo de problema também acontece, só demora mais. Eu já tinha visto isso justamente com criação de vídeo no kdenlive. Tinha um bug no melt, possivelmente um memory leak, que ia consumindo toda a memória. Travava? Não, mas tinha de aguardar o kernel matar o melt pra conseguir voltar. Isso levava de 4 a 6 horas. Usando somente RAM acontece o mesmo, mas é mais rápido, por volta de 20 ou 30 minutos.
Eu tentei achar alguma referência de tunning pra ajudar.
Memory Management Approach for Swapless Embedded Systems
http://linux-mm.org/LinuxMMDocumentation
O problema é que a maioria das informações são antigas. No kernel que estou usando, 3.17.7, não tem esses parâmetros. Mas eu tentei melhorar a responsividades alterando algumas coisas:
vm.laptop-mode = 1 vm.memory_failure_early_kill = 1 vm.memory_failure_recovery = 1
O resultado foi bastante satisfatório e agora o sistema tem estado mais responsivo durante alta carga que exige alocação de memória. E com mensagens interessantes vindas do kernel.
Out of memory: Kill process 24223 (chromium-browse) score 332 or sacrifice child Killed process 24223 (chromium-browse) total-vm:1360048kB, anon-rss:242548kB, file-rss:15632kB
Gosto de um sistema que exige sacrifícios.
Acho que agora o tão falado fim da rede social que revolucionou a comunicação na Internet chegou. Não digo em relação à investimentos, interface web ou mudança de tráfego. Falo de código.
Recentemente eu ministrei mais um coding dojo. O assunto escolhido foi... Twitter! Twitter e python. O motivo era simplicidade de ambos. Fácil fazer, rápido pra colocar em produção e testar.
Até preparei meu curso de python twitter pra inglês:
http://prezi.com/phgt99r0-3fx/?utm_campaign=share&utm_medium=copy&rc=ex0share
Palestra pronto, público pronto, então foi hora de bota a mão na massa. Pra não começar com algo enfadonho, aproveitei o intervalo de almoço pra criar uma conta na rede do twitter, pra justamente fazer a aplicação e brincar. A conta foi criada sem problemas, mas na hora de criar a aplicação e mudar a permissão de leitura pra escrita...
Uma das coisas que adorava no Twitter era a facildade. Bastava criar uma conta e usar. Sem burocracia. Então começaram com confirmação de e-mail. Até aí era tranquilo. Criava um mail a mais em um dos meus domínios de Internet e continuava em frente.
Mas agora é preciso cadastrar telefone. Um número pra receber... SMS de confirmação? Até entendo a parte de aumentar a segurança pro usuário com autenticação em 2 passos, mas... complicou. Não tenho várias linhas de prépago pra ficar cadastrando a cada novo usuário que eu criar pra dar um curso ou coding dojo.
Sim... pra mim isso significa o começo do fim. Não são os números, não são os investidores, não é o mercado. É o uso. É o hacking. Esse era o diferencial para mim.
Minhas outras aplicações mais antigas ainda funcionam. Ainda. Mas não sei por quanto tempo. Posso simplesmente cadastrar meu celular? Até poderia, mas não tenho tanto interesse assim que o Twitter ou qualquer outra rede saiba meu celular.
Então é isso... continuarei usando mas... não tanto. Nem pra cursos. Nem pra coding dojos.
É hora de mudar pra outra rede.
Due my current job, I can't offer anymore Debian professional consultant services. It could conflict to company interestes. But I can offer it for free.
So if you are a non-profit organization, like schools, and would like to have a Debian server place in your environment, I can give you certain services and/or directions.
Services that I can help you are:
Do you need them? Or even an install fest? Or someone to talk about Debian and Linux? Then just drop me a mail.
Mail: helio-arroba-loureiro-ponto-eng-ponto-brTwitter: @helioloureiroNo nosso ambiente de desenvolvimento utilizamos Jenkins pra Continuous Integration, ou seja, a cada "commit" de código, compilar e testar a versão de uma forma automatizada. Cada um pode conectar no servidor Jenkins e visualizar o status do build, mas deixamos um display aberto para que todos possam ver como as coisas andam (e não deixar um release quebrado parado pra sempre).
Nada melhor que usar um raspberrypi pra essa atividade, já que é um dispositivo pequeno e com baixo consumo de energia. Aliás é o treco pendurando pra baixo da TV. O único incoveniente é que pra mostrar mais de um servidor Jenkins, as opções atuais são pra utilizar algum código javascript que faz com que a tela troque de URL.
Essas soluções funcionam muito bem em PCs x86_32 e x86_64, mas em um raspberrypi... as limitações de CPU são grandes. Como os browsers que suportam isso são chrome/chromium e firefox, o efeito indesejado é essa "lentidão" em renderizar a página, como mostra a imagem.
Outro problema é que seu um dos servidores Jenkins estiver fora do ar, esses javascripts "quebram", não fazendo a transição pra url seguinte.
Pra completar o problema, decidimos mudar de chromium pra epyphany, pois o mesmo usa muito menos memória que o chromium, e menos CPU. Mas nem tudo é perfeito: o epyphany não suporta script pra trocar entre várias URLs como o chrome.
Durante essas trocas browsers e experimentos, troquei umas mensagens com o Gustavo Noronha, vulgo Kov, que é um dos mantenedores do epyphany, perguntando sobre as possibilidades do mesmo. Ele disse que epyphany não suportava esse tipo de plugin, mas que eu poderia escrever minha própria aplicação em webkit. Então...
Demorou. Acho que trocamos essas mensagens, via twitter, lá pro meio de outubro. Já é quase Natal. Mas finalmente escrevi alguma coisa.
Comecei com um pequeno script baseado num código em C++ com Qt:
#include #include int main(int argc, char **argv){ QApplication app(argc, argv); QWebView wv; QWebPage *page = wv.page(); QWebSettings *settings = page->settings(); settings->setAttribute(QWebSettings::JavascriptEnabled, true); settings->setAttribute(QWebSettings::PluginsEnabled, true); wv.load(QUrl("http://www.youtube.com")); wv.show(); return app.exec();
Acabei trocando o script simples pra uma classe em python, e usando threads. O que era simples ficou um pouco mais... vamos chamar de "refinado". Mas está funcionando. E com menos memória e CPU, que era o objetivo inicial.
Quem quiser dar uma brincada ou mesmo usar, o código está disponível no GitHub:
Isso mesmo. Olhando meus diretórios pra começar um backup, percebi que criei um arquivo com nome "-C". Provavelmente resultando de alguma comando errado.
O que fazer nesse caso? Em geral comandos como "rm" e "mv" não funcionam pois interpretam o "-C" como uma opção do comando, não como arquivo.
Existem várias formas de resolver isso, inclusive algumas mais fáceis via interface gráfica usando nautilus/dolphin ou algo do gênero. Mas vou mostrar a "forma UNIX" de resolver isso.
Primeiramente, onde está o danado do arquivo?
helio@linux:home$ ls backup -C helio fisl lost+found support
No caso estava no meu diretório "/home". E o que era o arquivo?
helio@linux$ home# ls -l total 646124 drwxr-xr-x 2 root root 4096 Nov 21 09:41 backup -rw-r--r-- 1 root root 661555200 Oct 9 12:05 -C drwxr-xr-x 367 helio linux 36864 Nov 21 09:43 helio drwxr-xr-x 6 fisl fisl 4096 Mar 5 2014 fisl drwx------ 2 root root 16384 Nov 16 2013 lost+found drwxr-xr-x 5 support admin 4096 May 17 2013 support
Agora vem o truque. Cada arquivo criado no seu filesystem tem junto um número de i-node, que é onde ele foi efetivamente gravado no disco. É possível usar a opção "-i" do comando "ls" pra verificar cada número de i-node de cada arquivo do diretório, seja um arquivo, seja um diretório, ou seja qualquer outra coisa (em Unix, tudo é arquivo).
root@linux:home# ls -i 15335425 backup 4741 -C 16252929 helio 14942209 fisl 11 lost+found 15466497 support
Verificado qual o número do i-node, 4741, agora é usar o comando "find" com opção de "-inum" pra mexer nesse arquivo, junto com um "-exec". Na opção "-exec", o arquivo encontrado é substituído pelo "{}", que é como se fosse uma variável com o que foi encontrado pelo parâmetros anteriores, no caso o "-inum".
Então basta usar isso pra renomear o arquivo pra qualquer outro nome.
root@linux:home# find . -maxdepth 1 -inum 4741 -exec mv {} arquivo_alien \;
Verificando...
root@linux:home# ls backup helio fisl lost+found support arquivo_alien
Agora descobrindo o que é esse arquivo.
root@linux:home# file arquivo_alien arquivo_alien: POSIX tar archive (GNU) root@linux:home# mv arquivo_alien arquivo_alien.tar root@linux:home# tar tvf arquivo_alien.tar drwxr-xr-x root/root 0 2014-10-09 12:05 home/ drwxr-xr-x fisl/fisl 0 2014-03-05 10:16 home/fisl/ drwxr-xr-x fisl/fisl 0 2014-03-05 10:16 home/fisl/.purple/ -rw-r--r-- fisl/fisl 173 2014-03-05 10:16 home/fisl/.purple/blist.xml drwxr-xr-x fisl/fisl 0 2013-07-04 22:21 home/fisl/.purple/certificates/
Realmente um arquivo do tipo tar. Provavelmente de algum backup que tentei fazer e passei a opção de forma errado. Sem stress e problema resolvido.
root@linux:home# rm arquivo_alien.tar
Durante uma conversa na rede social Diaspora (tenho uma conta no joindiaspora.com), aceite um desafio de ficar 1 mês fora do FaceBook.
Qual o motivo da ausência? Segundo o desafio, era impossível de se ficar fora da rede, que a rede nos obrigava a estar lá. O desafio também incluia uma ausência conjunta do Whatsapp, mas essa foi fácil, pois já faz algum tempo que substitui pelo Telegram. Entre as maiores vantagens desse, além da tão falada criptografia e segurança (que não acredito muito, mas vá lá) tem o fato de funcionar como webapp em qualquer browser. Isso facilita em muito a vida e não entendo as pessoas continuando a usar o Whatsapp. É tão anos 2010.
Mas voltando ao contro do assunto, e falando mais da ausência do Facebook. Foi assim, sem mais nem menos. Sem aviso. Apenas parei de usar. Como estava num processo de recuperação do meu celular - que eu tinha brickado tentando instalar cyanogenmod, o que consegui depois - então não tinha o app do Facebook no celular. Restava somente via browser, o que bastou somente não acessar.
Mantive o acesso do Twitter e do Google+, afinal, segundo o desafio, eles não tinham a dominação do Facebook e não fariam diferença. E claro, continuei com o Diaspora.
No fim até que foi um bom desafio pois pude ficar fora do Facebook justo durante o período das eleições. Até onde tinha visto, a coisa tinha virado briga de torcida, então foi um lado bom.
No Twitter não foi muito diferente, mas ao contrário do Facebook, Google+ e Diaspora, dá pra usar um aplicativo cliente não oficial, e esses em geral permitem filtrar tipo de posts indesejados. Então foi só botar algumas palavras-chave pra me ver livre da briga de torcidas das eleições.
No Google+ eu nunca usei muito, nem o Diaspora, mas essa ausência também não me fez aumentar o uso. Aliás o pouco que entrei em ambas as redes, as eleições davam o tom. Um tom de lixo não reciclável, que fedia a racismo e difamação, de todos os lados. Achei melhor assistir mais o Netflix.
Eu mantive meus aplicativos enviando mensagens pra dentro do Facebook, como Flickr e RunKeeper, onde geralmente posto minhas fotos (quase sempre do tempo fechado e frio) e meus passeios de bike. Não sei se tiveram repercurssão ou não, acho que vou descobrir agora.
O que mudou na minha vida então depois desse 1 mês fora do Facebook? Na verdade foi mais de 1 mês. Foram 5 semanas, pois esperei passar o segundo turno das eleições e depois resolvi esperar passar o chororô de quem perdeu. Apenas uma pausa: acho que ambos os candidatos eram só mais do mesmo. Ganhar um ou outro não mudará em nada pra onde a coisa está se encaminhando no Brasil e a resposta será amarga. Voltando ao assunto, senti falta dos grupos. Eu já não sou muito usuário da timeline, que passava de vez em quando dando <like> em tudo, e depois mudava pros grupos. Os que mais gosto são:
Tem outros grupos que gosto de participar também, mas nem todos são abertos ou eu participo tanto. Também perdi contato com os amigos que ficaram no Brasil.
Ainda não entrei com tudo no Facebook, mas foram poucas mensagens em que fui citado (68) e algumas pessoas tentaram conversar comigo (5). Dessas conversas, 4 foram de assuntos técnicos, com Linux.
Ou seja, em pouco mais de 1 mês fora do Facebook, 5 semanas, perdi 35 dias. E só.
Pra celebrar mais um Halloween que chega (e que nesse ano celebro de verdade), um conto de terror. Conto? Terror? Não. Mais pra piada que eu tentei achar o original, mas... foi-se.
É sobre Jesus e o Diabo, numa competição de computadores. Existe a versão original, mas a adaptada, powered by Linux, é muito mais engraçada. Infelizmente essa eu não achei. Então peguei a original e dei "aquela ajustada" pra ficar coisa fina.
Divirtam-se e bom Halloween.
Jesus e Satã estavam tendo uma discussão sobre quem era o melhor em computação.
A discussão já ocorria fazia dias, e Deus já estava divinamente cansado de ouvir tanto mimimi. Então finalmente Deus disse "Ok, eu vou preparar uma competição de 2 horas e vou julgar quem é o melhor em computação".
Assim Santã e Jesus sentaram numa mesa pra competir. Satã rodando o último Windows 10 (pre-release), num laptop Aliewware, 21 polegadas, 98 GB de RAM, 2 TB de disco SSD, e 2 CPUs Intel Core i7. Jesus com seu velho laptop Dell, 14 polegadas, 32 MB de RAM e rodando Slackware. Sem interface gráfica.
Eles abriram seus editores de texto preferidos, Satã com o último Microsoft Word 2013 e Jesus com vi, e começaram a digitar. Satã digitou logo de cara 100 palavras, depois 1000, logo 10000, usando 10 dedos, algumas vezes até 15 dedos. Digitava como um louco alucinado. Jesus estava lá, catando o milho que Deus abençoou, usando um dedo de cada mão, no máximo. Tinha algo como 10 palavras digitadas.
Todos estavam ansioso pra ver a performance divina de Jesus, mas aparentemente ele não tinha feito nenhum curso de digitação.
Mas 10 minutos antes do tempo terminar, repentinamente uma luz piscou pelo céu, um trovão se fez ouvir, e uma chuva forte caiu e, claro, caiu a eletricidade também. Aparentemente ambos os laptops estavam sem bateria, uma certa providência divina.
Satã olhou sua tela negra e xingou alguma coisa numa palavra que somente o submundo poderia entender. E Jesus suspirou.
Após alguns minutos, a eletricidade finalmente voltou, e os computadores reiniciaram.
O computador de Satã não reiniciou. Ao invés disso apenas apresentou a famigerada BSOD, mostrando que algo havia se corrompido com o crash. Ele então começou a teclar freneticamente, quase quebrando o teclado, tentando fazer com que o sistema voltasse. Mas nada aconteceu. Apenas sua voz se ouvia, gritando e esbravejando "Se foi! Tudo se foi! Maldito sistema! Maldito! Alguém traga um DVD que preciso reinstalar o windows!"
Enquanto isso, Jesus calmamente aguardava o final do fsck. Quando isso aconteceu, um prompt de login do Linux apareceu. Ao entrar no sistema, Jesus pode ver que o texto, com suas 15 palavras digitadas no vi com muito custo, estavam lá.
Satã ao perceber isso, ficou irado. "Pare! Ele roubou! Com isso pode ter acontecido!?"
Então Deus, com um sorriso maroto e já declarando Jesus o vencedor, olhou de canto de olho e disse "só vi salva".
Novamente falando sobre armazenamento no cloud depois do fim do UbuntuOne e Condoleezza Rice se juntar ao board do Dropbox.
Antes eu tinha descrito uma mudança experimental pro Box.com. Foi bem experimental mesmo. Totalmente. Depois de usar um pouco, simplesmente desisti. Quando alguém não suporta bem Linux, é um trabalho ingrato pra ter as coisas funcionando corretamente. O Box.com não sincronizava bem via webdavs. Às vezes só corrompia o arquivo, às vezes não copiava nada e ficava travado.
Entre post daqui e dali desse assunto, sobre abandonar o dropbox em favor do box.com, o amigo Kemel Zaidan me falou do Copy. Um serviço de storage com mais espaço disponível, 15 GB, e que tinha aplicativo pra Linux. Ao tentar acessar, descobri que até já tinha me registrado, mas nunca usado efetivamente. Bastou pedir pra re-enviar a senha pra ter tudo no lugar.
Uma das coisas boas do Copy era a possibilidade de copiar os dados do Dropbox pra ele, diretamente, o que fiz. Fiz o sincronismo no disco e juntei os dados do UbuntuOne. E pronto! Todos os meus storages de cloud num só lugar. E que funciona tanto no Linux quanto nos meus dispositivos móveis, celular e tablet.
O Copy é mantido pela empresa Barracuda Networks. A primeira vista eu achei que era uma empresa ligada aos HDs Barracuda, mas esses eram uma linha de HDs da Seagate. E só. Barracuda Networks é uma outra empresa, localizada no vale do silício, que tem soluções para redes. Entre essas, tem o storage.
Vale do silício? Sim. Então significa que não deve estar muito longe da xeretagem da NSA. Continua não sendo um meio confiável pra informações confidenciais, o que continua não sendo meu caso. Em geral armazeno scripts pra evitar fazer rsync pra todo lado, e documentos em pdf.
Outro ponto negativo é que tem aplicativo pra Linux, mas não necessariamente com código aberto. É possível baixar e instalar, mas não verificar o que está fazendo exatamente. É instalar um binário e rezar pra não ter código malicioso ali. Eu não rodo como root, mas não significa que não tenha acesso aos meus dados importantes de usuário.
Sim Com certeza. Mas eles só fornecem 2 GB gratuitos.
Como meus dados não são lá muito secretos, eu prefiro no momento um sistema que é suscetível à NSA, mas se eu fosse armazenar dados confidenciais, com certeza escolheria outra opção.
Entenda que "sigilo" não é "confidencialidade". É como seus dados bancários: a informação é sigilosa, que só você e o banco podem ver. Mas não é criptografada. Quem tiver permissão de acesso às contas, pode ver seu saldo, seus gastos, histórico de gastos, etc. É mais ou menos o que acontece com seus dados em empresas como a Copy: meus dados estão lá e são sigilosos, mas não estão criptografados pros sistemas da empresa. Então eventualmente podem ser buscados com um "grep" pra achar informações.
Não gosta que ninguém olhe seus arquivos? É um ponto justo. E nesse caso o melhor é usar os serviços do SpideOak ou mesmo instalar seu próprio cloud com owncloud.
Mega tem a vantagem de oferecer 50 GB de espaço. É de longe o maior espaço disponível. E diz manter a confidencialidade e o sigilo dos dados armazenados. Parece legal, mas até agora não tem aplicativo cliente pra Linux, e eu não quero um storage em cloud onde meus dados fiquem somente lá. Quero um replicação de dados. Ainda mais que Kim Dotcom, o dono do Mega, está no foco do FBI. A qualquer momento pode ter seu site fechado novamente.
Com isso, nesse momento, eu estou preferindo o Copy. Mas é um mundo de Internet. Amanhã posso usar outra coisa.
Finalmente criei vergonha na cara e criei um certificado pra usar https no site. Não que eu não usasse criptografia antes, mas era um certificado auto-assinado com aquele "SnakeOil". Motivo? Simplesmente uso conexão segura pra postar no site, e mais nada.
E os usuários? Bom... eu não tenho um "grande" site com muito tráfego. Acho que ninguém vai se sentir ofendido pelo fato de não ser possível acessar o conteúdo via https. Aliás, até é mas vi que várias coisas no Joomla estão apontando pra http ao usar https. Um dia eu devo arrumar isso. Ou mudar o tema pra algum que tenha isso corrigido.
Mas o importante de ter um certificado ssl pro meu https é que consegui um assinado. E gratuitamente. A autoridade certificadora startssl fornece gratuitamente certificados de nível 1. São os mais simples, mas pra quem quer algo gratuito, vale a pena.
O melhor é que bastou seguir uma receita de bolo que o pessoal da DigitalOcean fez:
Rápido, fácil e funcional. Quem ainda não tiver um certificado assinado, vale a pena tanto por ser gratuito quanto pelo aprendizado.
Acho o Linus Torvalds genial. Não que seja um cara que criou um kernel, mas é um cara que criou um sistema de crontrole de versão de software, o GIT, em 2 semanas. Ou seja, ele é genial.
E ele apareceu na DebConf 14, que ocorreu faz poucas semanas, em Portland, EUA, pra falar um pouco. Foi uma sessão de perguntas e respostas.
O que esperar de alguém que criou o kernel de um sistema operacional? Perguntas técnicas de altíssimo nível? Um semi-deus falando? Escovação de bits?
Pois o grupo de desenvolvedores de Debian (ou seria "empacotadores") mostrou que não. De perguntas técnicas a perguntas idiotas. Sim, idiotas. Debian é um projeto de distro aberta. Isso não significa uma supremacia em inteligência. Tem muita gente que se preocupa com "comunidade", com o Linus chamando de idiota alguém que mereça.
Mas vamos falar um pouco sobre tudo que foi dito durante a DebConf 14. Claro que não na ordem em que foi apresentado, mas na que me lembro (não, não vou ficar vendo o vídeo novamente e escrevendo notas sobre o mesmo pra descrever aqui. Deal with it).
Linus foi perguntado e responde sobre o famigerado "systemd". É bom? É ruim? Eu concordo muito com ele, que é uma grande inovação. Endereçou vários aspectos que eram deficitários no Unix por mostivos históricos de design. É melhor? Essa é a grande pergunta. Essa inovação trouxe junto uma complexadade que quebrou com o velho e bom KISS (Keep It Simple Stupid). Mas sempre existe o dilema do "manter o velho" ou "quebrar tudo e ir pro novo". No momento, é algo interessante, que parece promissor, mas ainda falta muita coisa pra melhorar, como um tempo de resposta menor na lista de bugtrack.
Eu pessoalmente não estou convencido da melhoria do systemd. Boot mais rápido? Meu laptop reboota com um kernel novo, sincronizado via git, a cada 30-45 dias. Boot rápido realmente não importa pra mim nesse caso.
Esse foi um ponto interessante, pois ele deixou claro que não usa, nem pretende usar. Não que Debian seja bom ou ruim pra ele, mas ele basicamente usa um sistema de desenvolvimento de kernel. Isso significa um sistema que depois da instalação esteja pronto pra seu uso, sem muita firula, nem ambientes gráficos dos melhores. Apenas gcc e kernel. Uma coisa que o incomoda é o fato de precisar gerar um pacote DEB pra ter o kernel em seu lugra pra testar (provavelmente se referindo ao kernel-package). Para ele, uma distro tem de prover um sistema rápido para usar "make; make install" e poder testar.
Faz anos que não uso "make; make install" pra instalar o kernel. Sempre uso o kernel-package pela facilidade de ter um pacote pronto e gerenciável. Então não sei nem o que dizer sobre essa reclamação do Linus. Claro que o uso dele é bem específico.
Linus disse que ainda sonha com a dominação do Linux no Desktop, assim como já domina os ambientes de servidor e de mobile. Mas que nesse ponto não depende do kernel, mas das distros. Elas que preparam o sistema pros usuários. E disse que os exemplos que ele enxerga com futuro nessa linha são os chrome books (chrome OS) e... Ubuntu. Qual usuários ele se refere? Ele deixa claro que não os usuários como nós, que já usam Linux, mas os iniciantes como crianças, idosos, etc, ou seja, pessoas que não são da área de TI. Esse são o foco que as distros têm de ter pra conseguir dominar o Linux no desktop.
Outro ponto que comentou foi em relação à steam, que a mesma está trazendo um visão de Linux desktop para os usuários. Infelizmente isso exige que ela distribua grandes pedaços de binários (linkados estaticamente) por conta da grande variedade de distros, cada uma com sua visão de sistema. Essa diversidade, por ser um ponto forte por um lado, é um ponto fraco no ponto de distribuição de binários diretamente pros usuários.
Nesse ponto ele comenta que decidiu não ir pelo caminho da GPLv3 pelo fato dela "exigir" a liberdade de quem usa o código. A GPLv2 permite uma troca de liberdades: eu permite que use meu código, se o melhorar, peço que devolva essa melhoria. Então a GPLv2, ao seu ver, é muito mais flexível e perto de uma licença BSD de uso. Já a GPLv3 exige que ao usar um código livre, o mesmo seja disponibilizado. Esse pequeno argumento muda o conceito de trocas, que tanto Linus preza. Então preferiu manter com a GPLv2 mas foi enfático em dizer que a GPLv3 não é ruim, mas não se adequa ao que ele quer pro kernel Linux como modelo de desenvolvimento.
Houve uma certa reclamação quanto a FSF e a forma que mudou a GPLv2 pra GPLv3, mas eu acho melhor deixar essa parte da discussão as puritas dos assuntos de liberdade. Por enquanto sigo a recomendação do Linus que disse que se quer falar de liberdade, melhor a EFF que a FSF.
É conhecido o fato do Linus Torvalds ter uma certa aversão a aparecer em público. O motivo? Ele não é uma das melhores pessoas do mundo. Não luta contra fome ou coisas do tipo. É um geek, um nerd, e como tal, tem seus momentos de explosão temperamental. Infelizmente esses momentos ficam gravados em listas e mails. Quando estão pessoalmente com ele, muitas das pessoas da audiência o julgam por seu comportamento, esperando dele algum tipo de de atitude mais "magnânima", mais em "pról da comunidade". Mas somos todos humanos, demasiados humanos, já dizia Nietzche.
Na DebConf, que não tem uma comunidade especificamente técnica, mas alguns desses goiabas que gostam do assunto político ao invés do técnico, então isso não fugiu do roteiro. Como sempre, um tipo de "saia justa" pra ele, que se saiu muito bem (ao meu ver) com um "respeito não é algo que se ganha, mas que se conquista". E isso é especialmente quando alguém tenta mexer no kernel que ele criou.
Linus comentou sobre outras coisas, como SELinux, que usa um framework de segurança no kernel (e que de acordo com ele torna tudo mais lento), mas o melhor é assistir ao vídeo.
Page 15 of 33