Ainda hoje muita gente mostra supresa quando digo que estou rodando um kernel recém lançado em meu sistema. Apesar de quase todo mundo saber que Linux é o kernel apenas, uma parte do sistema operacional, pouca gente compila seu próprio kernel. E isso é uma coisa bastante simples com Debian e Ubuntu, ou qualquer outro sistema baseado neles.
Também vejo pessoas distribuindo o kernel em forma de download em sites como 4share, mega, etc. É legal contribuir com comunidade, mas distribuir um kernel assim, a parte mais vital do sistema, dá brecha de segurança pra que alguém insira um malware ali. Então evite fazer isso. E compile seu próprio kernel.
O primeiro passo é ter o código fonte do Linux. Depois que passou a utlizar o git pra controle de versão (e muito mais que isso), eu também passei a usar o mesmo pra sincronizar meus fontes. No diretório "/usr/src", como root, crie o repositório git local da seguinte forma:
root@jessie:src# git clone https://git.kernel.org/pub/scm/linux/kernel/git/stable/linux-stable.git
Não é um processo rápido. O sistema vai baixar mais de 1 GB de arquivos no diretório "/usr/src/linux-stable".
Antes de botar a mão na massa, crie um novo "branch" com a versão que irá compilar. É possível ver as versões disponíveis pelo comando "git tag -l". No meu caso eu usei a versão v4.1-rc7. Então a coisa toda pra listar e criar seu "branch" fica assim:
root@jessie:linux-stable# git tag -l | grep v4.1 root@jessie:linux-stable# git checkout -b v4.1-rc7 tags/v4.1-rc7
O próximo passo é criar uma configuração de kernel antes de compilar. Em geral eu copio o arquivo "/root/config-<minha versão corrente>". Se quiser fazer isso, o comando correto é:
root@jessie:linux-stable# cp /boot/config-$(uname -r) .
Existem outras maneiras de configurar o kernel, como usando o comando "make menuconfig" ou "make xconfig", entre outros. Mas é preciso saber exatamente o que se quer do kernel pra configurar o que se realmente deseja. Uma tarefa não muito fácil pras primeiras compilações.
O passo seguinte é instalar um pacote chamado "kernel-package". Esse pacote é que faz toda a mágica da compilação e geração de pacotes pra você. Isso mesmo: ao final do processo terá um kernel seu num arquivo .deb. Eu já usei isso muito pra compilar em uma máquina e instalar em várias outras. Voltando ao pacote, instale usado "apt-get", "apt" (novíssimo), ou "aptitude".
root@jessie:linux-stable# apt install kernel-package
O passo seguinte é chamar o kernel-package pra criar o kernel. Eu pessoalmente uso da seguinte forma:
root@jessie:linux-stable# make-kpkg --initrd --append-to-version "-helio" --bzimage --revision 1 -j 4 kernel_image
O comando passado e os parâmetros são:
Ao iniciar a compilação, o sistema passará por uma etapa de revisão da configuração que foi definida anteriormente. Todo opção nova passará por uma pergunta se deve ou não ser incluída, ou ficar como módulo (pra ser carregado dinamicamente). Toda pergunta já vem com alguma sugestão de resposta. Em geral essa é a melhor opção a menos que realmente saiba o que aquela configuração significa.
Passada essa etapa, pode ir pegar um café. Um café? Melhor um bule inteiro. E pode ir assistir ao último episódio de Game of Thrones que a compilação demora um pouco.
Uma vez terminada, se não tiver nenhum erro, será gerado um pacote com o formato "/usr/src/linux-image-<versão do kernel><nome que você personalizou>_<revisão>_<arquitetura da máquina>.deb". No meu caso foi o pacote "/usr/src/linux-image-4.1.0-rc7-helio_1_amd64.deb". Basta instalar e rebootar o computador pra testar a nova versão.
root@jessie:linux-stable# cd .. root@jessie:linux-stable# dpkg -i linux-image-4.1.0-rc7-helio_1_amd64.deb root@jessie:linux-stable# reboot
Se por acaso alguma coisa der errado, basta segurar o <Shift> ou <Esc> na inicialização da máquina, antes de carregar o Grub, pra poder ver o menu do mesmo. Em seguida escolher o kernel que se estava rodando antes e inicializar por ele. Depois basta remover o kernel criado, algo que e facilitado pela geração do pacote .deb.
root@jessie:linux-stable# dpkg -r linux-image-4.1.0-rc7-helio
Se for compilar o mesmo kernel, mas com opções de configuração diferentes, pode usar outra revisão. Aliás incrementar a mesma. Isso aparecerá no pacote gerado, mas não no kernel.
Boa compilação e boa diversão :)
Não é um fenômeno recente. Faz alguns anos que esse sintoma tem aparecido. Mas não é no mundo todo. Até o momento só vi isso vindo do Brasil, o mesmo país que pede pela volta dos militares ao poder com a chamada "intervenção militar no Brasil". Temas distintos, modus operandi similar.
O princípio é "se não for como eu quero, então está errado". Isso pode ser usado em qualquer âmbito: religião, futebol e até mesmo em... software livre!
Essa discussão em software livre já vem caminhando nessa direção faz algum tempo. E sempre com extremismo. Os pontos são sempre "se não for livre, então é outra coisa". A moda do momento é chamar como "OSIsta", uma alusão pejorativa de quem usa ou endossa a iniciativa do "open source". Notem novamente o "modus operandi": é preciso ter um nome, um label, um rótulo, algo pra classificar, desmerecer, pra fazer um dualismo, uma contra-posição.
Essa tendência repete-se nitidamente na política, como se verificou nas últimas eleições presidenciais. Ao invés de um debate democrático, partiu-se pra um enfrentamento de "nós x eles". No caso da política, de ambos os lados, e todos recheados de mentiras e números mágicos pra comprovar alguma coisa. O ponto era sempre irrelevante, o importante era ter uma "torcida" contra e outra a favor.
Em software livre estamos na fase das "torcidas". É um tal de "minha distro é melhor que a sua" e de "pra resolver esse problema, instale a distro tal". Perdemos o saber, o conhecimento, o prazer técnico. Voltamos à idade da pedra digital. Batalhas épicas são travadas por causa de interfaces gráficas. Ninguém mais liga se é possível instalar essa mesma interface em outra distro ou não. Ajudar? Escrever software? Não, muito obrigado.
O que é uma comunidade? A wikipedia, que é uma comunidade, nos ajuda a responder do ponto de vista sociológico:
Uma comunidade é um conjunto de pessoas que se organizam sob o mesmo conjunto de normas, geralmente vivem no mesmo local, sob o mesmo governo ou compartilham do mesmo legado cultural e histórico. Os estudantes que vivem no mesmo dormitório formam uma comunidade, assim como as pessoas que vivem no mesmo bairro, aldeia ou cidade. Fichter, 1967 em suas Definições para uso didático ressalta que uma palavra que é rodeada de significados múltiplos, requer uma cuidadosa definição técnica, ao que propõe: comunidade é um grupo territorial de indivíduos com relações recíprocas, que servem de meios comuns para lograr fins comuns.
https://pt.wikipedia.org/wiki/Comunidade
São indivíduos reunidos por algo comum em buscar de reciprocidade pra chegar nos mesmos objetivos. Isso significa que pra fazer parte de uma comunidade basta... participar!
E numa comunidade de software livre? O que se espera de alguém que participe de software livre? Pode parecer loucura minha, mas se espera que a pessoa faça... software! E livre! Livre! Que coisa doida, não é?
Claro que nem todos têm essa capacidade de escrever software. Mas sempre podem colaborar como membros de um grupo, ou até vários. Podem ajudar com traduções, escrevendo novos documentos de uso, compartilhando experiências em blogs, participando de grupos, fazendo eventos, palestrando, escrevendo relatórios de bugs e... eventualmente... escrevendo software!
Numa comunidade esse é o caminho do aprendizado, vai se crescendo conforme se participa e adquire mais maturidade. Uma comunidade de software, seja livre ou não, não vive por muito tempo se ninguém se dispuser a escrever o software. No caso de uma comunidade de software livre, temos de fazer sempre software, e livre.
E como define liberdade? Como um software é livre?
Nisso o Richard Stallman já nos ajudou mostrando que pra um software ser livre, ele precisa atender as 4 liberdades. Eu já tinha descrito no post "freesoftware e negócios", mas o faço novamente aqui:
Então pra fazer parte de uma comunidade de software livre, basta criar softwares partindo desse princípio básico. E a licença? Sempre depende de quem criou. Alguns gostam da GPL (sendo que GPLv2 e GPLv3 são muito diferentes), já outros preferem BSD, ou Artistic License. Eu uso uma no estilo da Artistic License, a BWL.
Veja que software livre não é algo que dá poder ao programador ou desenvolvedor, mas ao usuário, que pode usar o software como quiser e quando quiser. Inclusive pra vender. O desenvolvedor permite que qualquer um possa usar e melhorar seu software.
Foi esse tipo de liberdade que me atraiu pro software livre. Não foi pra libertar um país de nenhum ditador, nem pra subverter a economia, muito menos pra derrotar o capitalismo. Eu gostei da visão pragmática do software livre, onde todos têm acesso ao código fonte e podem melhorar o software. Isso pra mim foi e ainda é liberdade.
Mas aparentemente não pra galerinha que gosta de rotular. Software livre extrapolou os limites do software pra se tornar uma luta de classes. Como ideologias econômicas temos o capitalismo, o socialismo, e agora o softwareliberalismo. Não, não existe, mas para alguns, aparemente é o que é.
E como se define um líder numa comunidade? Em geral é pela meritocracia. Meritocracia de fazer polêmica? Não, meu caro. Deveria ser por ter passado por todos os estágios de uma comunidade de software livre. Mas quantos que gritam pelas ruas pela "liberdade do software" realmente se encaixam nesse perfil?
Muitos desses "lutadores da liberdade", ou melhor, "gladiadores da liberdade" escolheram o Ubuntu como alvo. Qual o motivo? Duas respostas simples:
1) Ubuntu lidera o mercado de desktops Linux
2) Ubuntu não é uma distribuição criada por uma comunidade, mas por uma empresa, a Canonical
Então qual é o mais fácil de atacar? Quem tem o menor número de usuários ou o maior? Claro que o maior. Por isso que Ubuntu é sempre escolhido como alvo preferido. E enquanto mantiver essa liderança, continuará sendo. Pra isso não importa se trouxeram mais usuários pra Linux, se mantém um portal pra correções de bugs ou que façam doações de mídia de instalação gratuitas. É corporativo, é do mal. O que antes era ocupado pela Microsoft como visão de antagonismo, agora é a Canonical com seu Ubuntu. É sempre preciso ter um inimigo pra lutar contra.
Os problemas citados? Vou apenas comentar um: Ubuntu "monitora seus usuários". A Canonical, mais uma vez como empresa, decidiu monetizar o Ubuntu utilizando as "lentes" de seu ambiente desktop pra fazer buscas na Amazon e assim conseguir algum financiamento com essas buscas. O mesmíssimo mecanismo usado por... FIREFOX! Sim, o browser Firefox. Quando se faz a pesquisa na caixa de pesquisas do browser, ele envia ou pra Google ou pra Yahoo, pra monetizar o projeto e assim poder financiar seu desenvolvimento.
Mas o Firefox, ou melhor, a Mozilla não é líder. Nem em browsers, nem em telefones (que recém lançaram e não fez muito diferença pros usuários). Então não vale a pena receber o ódio dos gladiadores da liberdade. É preciso ter um significado, mostrar alguém com monstro, como contradição. É preciso ter um diabo pra existir um deus.
Todos os outros comentários sobre Ubuntu, e que podiam ser pra qualquer outro, caem no caso de factóides. São apenas meia-verdades contadas pra criar um fato, um caso. Apenas pra gerar polêmica e buscar atenção. Não vou comentar mais nenhum, mas da próxima vez que ouvir sobre algo assim, pergunte a si mesmo qual é a licença usada nesse software/produto da Canonical, se o código fonte está disponível, se é usado pela Canonical, pelo kernel (Linux), se é usado por outras distribuições profissionais como RedHat e Suse, e se qualquer usuário poderia optar por remover ou não pelo gerenciador de pacotes. Se está entre algum desses, factóide na certa.
Acho que não. Ubuntu não precisa disso ou de qualquer um de nós. É gerido por uma empresa, e não por uma comunidade. Como tal, toma suas decisões como melhor convier pra seu negócio.
E se em algum momento o Ubuntu ou a Canonical se sentirem lesados por essas atitudes, tenham certeza que seus advogados agirão.
Eu gosto do Ubuntu pela facilidade de entrada ao mundo de software livre que proporciona às pessoas. Não é feito pra mim ou pra qualquer um que já use Linux, mas pra quem nunca usou ou experimentou. Esse tipo de usuários (veja que não me refiro como comunidade, mas usuário) não tem interesse ou conhecimento sobre liberdade. Não nesse primeiro contato, que é muito importante.
Eu sou fã irrestrito do Debian, mas simplesmente desisti de tentar esse primeiro contato através dele. Por que? Debian não é bom? É bom pra mim. É ótimo. Mas toda vez que tentei fazer uma instalação pra amigo, pra convencer a usar, virei um tipo de suporte técnico. Aliás personal suporte técnico. E problemas não faltaram. De upgrade que parou de funcionar ambiente gráfico a modem que não conectava mais na Internet.
Atualmente recomendo usar Ubuntu sem medo. Se gostar e quiser aprender mais, ensino sobre Debian. Se achar horroroso e difícil, já abandona ali mesmo. Ganhei tempo ao invés de perder.
Esse é o discurso que todos deveriam adotar em software livre: inclusão. Mas ao contrário disso decidimos por ir direto pela segregação.
Incrivelmente alguns realmente acham que esse caminho dará certo. Eu prefiro concordar com a imagem que o Patola postou num dos grupos que discutiam esse tipo de assunto. Deixa bem claro quem realmente ganha com a ajuda dos gladiadores da liberdade.
Cansado de tanta repercursão negativa e tentando ter seu kernel em acordo com as diretivas da GNU, Linus Torvalds está lançando a versão do kernel que passará a se chamar "mimimi". Segundo o próprio:
- O que antes se chamava Linux, de agora em diante será chamado simplesmente de mimimi. Não virá mais com nenhum blob binário ou suporte a hardware que não seja livre, ou melhor, livre de mimimi. Aliás também não terá gereciamento de memória, já que ninguém lembra mesmo de nada e quando o assunto é "fazer software", o sujeito finge que não é com ele. Isso atenderá as demandas de liberdade de todo mundo, que poderá chamar de sistemas GNU/mimimi.
Apesar de não ter sido claro e específico, o novo kernel parece ter sido feito sob medida pro Brasil, pois leva a tag "br".
A versão inicial é 6.6.6-br mas não se sabe se o GNU/mimimi terá mais versões ou vai ficar nesse mesmo release indefinidamente. Alguns já dizem que GNU/mimimi não precisa de mais versões, pois o mimimi é infinito.
Nota: esse é um post de 1º de abril. E o choro, como sempre, é livre.
Não é de hoje que os releases do Debian não saem nas datas esperadas. O Debian evita ter uma data certa, como faz o Ubuntu, por focar na qualidade: enquanto não estiver com todos os bugs corrigidos, não há o lançamento da versão.
Mas em tempos de 140 caractéres, é difícil conter a ansiedade em esperar. Muitos já estão migrando pra nova versão que virá, a Jessie, mesmo essa estando em estágio de "desenvolvimento" ainda.
Mas você pode ajudar a resolver os problemas. Foi lançado um mail pra informar o estado atual do desenvolvimento. São 55 bugs ainda abertos que precisam de correção.
Se quiser contribuir, basta ajudar a resolver esses bugs, e enviar suas correções/comentários pro time (ou pessoa) responsável.
O lançamento da próxima versão do Debian pode estar em suas mãos.
Tem sido bastante difícil pra mim manter meu site atualizado, e não estou conseguindo manter meu ritmo de ao menos 1 post por semana. Sinal de trabalho duro em outras coisas.
Estava pra comentar sobre esse assunto espinhoso, dos vírus pra Linux, faz um certo tempo. Ao menos desde o início do ano. Mas... enfim consegui um momento livre pra eu poder fazer isso.
A pergunta que surge de tempos em tempos é clara: EXISTEM VÍRUS PRA LINUX?
As respostas variam. Defensores de Windows dizem que com toda certeza existem. Mostram receitas esotéricas sobre como isso é possível e sempre voltam com a famosa frase "nenhum sistema é infalível", ou algo parecido com isso.
Os defensores de Linux, eu me incluo nesse grupo, dizem que é impossível. Linux não é Windows. Não foi feito sobre a mesma plataforma furada da Microsoft, que é cheia de buracos, e até provavelmente com alguns toques da NSA pra ajudar. Se o usuário do Linux tem algum problema, o motivo é que não sabe atualizar sua distro.
Mas isso não explica a quantidade de problemas que têm aparecido sobre malwares em plataformas Linux, inclusive Android.
O problema é o windows. Não que o windows tenha criado uma geração de vírus, mas o windows cunhou fortemente o conceito errado de que tudo é vírus. Todo problema, malware, tudo é vírus. E também foi graças ao windows que o conceito "se não funcionar, reinstala, se está lento, reinstala, e se quer mudar o wm, reinstala" se fortaleceu. Isso se faz bem claro nos usuários que, pra trocar o Unity no Ubuntu, reinstalam o sistema inteiro. Em geral com alguma refisefuqui.
Vírus é um pedaço de código que altera binários ou arquivos, e que se executa cada vez que esse programa é chamado ou aberto, no caso de arquivos.
Claramente isso não é possível no Linux por um simples motivo: quem executa o programa é o usuário e quem é o "dono" do binário é em geral o root.
Mas os problemas existem. E muitos. Existem os usuários que teimam em trabalhar como root no sistema, pra "facilitar as coisas". Em geral os mesmos que reinstalam os sistema inteiro pra apenas trocar o wm (window manager). Existem também os "programas de terceiros", como o plugin flashplayer, que não recebem as devidas atualizações de segurança. Felizmente esses "programas de terceiros" não causam danos ao sistema como um todo, mas infelizmente podem fazer estrago o suficiente com o usuário, como permitir que suas credenciais de banco sejam roubadas. Basta ver os recentes problemas do Java da Oracle. Recentes? Melhor dizer "contínuos".
E dá pra viver sem esses "aplicativos de terceiros"? Até dá, mas não é muito fácil. Alternativas existem, como pepperflashplugin ao invés do flash da Adobe, não usar acrobat reader ou seu plugin, mas os modos nativos do Firefox e do Chrome/Chromium pra renderizar pdf, etc. O problema não são os "aplicativos de terceiros", mas se esses terceiros tratam os usuários de Linux com respeito, atualizando a cada falha encontrada. Um bom exemplo dessa prática é o "steam", de jogos.
O problema então é o usuário, sempre?
Não. Novamente o problema vem do windows. Ou melhor, da idéia de vírus que veio com o uso do windows. Quando discutimos o conceito de vírus, sempre nos vem a imagem de um desktop. Daí os argumentos de problemas de segurança no Linux são apenas falta de atualização. Isso não é verdade.
O outro lado do problema apareceu bem recentemente durante os ataques de DDoS do grupo LizzardSquad contra as redes de jogos PSN e Xbox Live.
Foram usados roteadores caseiros, desses que usamos pra ter acesso wi-fi as nossas redes dentro de casa. O artigo não diz, mas acredito que câmeras IPs também foram usadas.
Esse tipo de problema não é novidade. Foi discutido durante um dos YSTS, acho que o de 2013 que participei. fabricantes, em geral na China, criam seus produtos pra rodar Linux, mas não dão nenhuma manutenção. São sistemas customizados a ponto de ser impossível de rodar uma alternativa como dd-wrt/open-wrt. Esses sistemas rodam kernels Linux muito, mas muito velhos. Daí que as explorações de vulnerabilidades, não vírus, ficam fáceis. Nesse ponto temos de dar o braço a torcer pros usuários de windows. Defender Linux nessas condições é quase como apontar o dedo pras máquinas windows comprometidas que rodam a versão XP. O agravante é que o usuário se torna refém do fabricante, pois diferente dos computadores, esses sistemas embutidos não permitem que qualquer um atualize como quer, quando quiser, com a distro que mais gostar.
Então da próxima vez que ler sobre "vírus pra Linux", antes de cair na gargalhada, pense nesses roteadores e câmeras IPs. Pense se esses sistemas rodando um Linux 2.4.20 não pode ter sua segurança facilmente comprometida. Depois lembre que Windows, até hoje, pode ser comprometido acessando uma página web. Foi corrigido? Espere algumas semanas que sempre aparece de novo.
Ah... o windows...
Em geral as análises do ano que se vai acontece na semana logo após o Natal, lá pelo dia 27 ou 28 de dezembro. Mas como minha árvore de Natal continua imponente na sala, mostrando que o Natal só termina quando acaba, o que deve ocorrer lá pra março pelos meus cálculos, acho que ainda estou em tempo de publicar como foi o ano do site durante 2014.
Como todo ano, tive uns altos e baixos no tráfego. Não foi um outage, mas eu que mudei o template do site e esqueci de carregar e ativar o módulo de estatísticas, que faço com o j4age que já publiquei sobre no post j4age, a evolução do joomlastats. Mas é possível ver que a média de acessos é por volta de 100 views/dia, o que está bom demais pra um site que não recorre à publicidade paga pra aparecer mais.
Windows continua firme e forte na primeira posição, mesmo eu não escrevendo absolutamente nada sobre ele. Mas apesar disso, acredito que são pessoas conscientes de seus erros e que pensam em mudar logo. Assim espero.
Surpresa foi o MacOSX figurar na segunda posição. Esse é um novo fenômeno.
E Linux surgindo na contagem com 10% dos acessos, mais o Ubuntu, com 7,5%. Com isso já são quase 20% dos acessos a partir de Linux, ou melhor GNU/Linux, pois existem mais os acessos a partir de Android, que são Linux mas não são GNU.
E Nokia. Com mais acesso que FreeBSDs. Nokia. Essa foi uma supresa.
Agora a estatística de acesso de navegadores ficou melhor, colocando todos os Firefox em uma só categoria. A tendência que já tinha visto em 2013, do Chrome despontando, se mostra clara. Internet Explorer despencou pra 3º posição, que ainda acho muito.
Sem muitas surpresas. Uma vez que muitos links direcionam pro site, os mais acessados são sempre links da página principal. Dá pra ver que existe uma certa procura por assuntos técnicos, principalmente python, e algum interesse por assuntos com mais opinião que informação. E o bom e velho #XGH.
Uma coisa que ainda domina bastante os tráfegos é informação sobre hardware antigo, mais precisamente o post que fiz sobre o uso de FreeBSD num compaq que eu tinha. Artigo de 2006 ou 2007. E continua tendo acessos.
Notadamente o tráfego pro meu site vem de pesquisas diretas do Google. Então o que seria de mim sem o Google? Não posso reclamar.
Esse é o ano que já começo numa vida nova, morando fora do Brasil. Tenho tido muito mais contato com a área de desenvolvimento e Linux que qualquer outro momento de minha vida. E espero ter tempo pra escrever por aqui. Mas... ao mesmo tempo que tecnicamente estou mais próximo do que gosto, também tenho mais desafios. Tenho cuidado de palestras internas e desenvolvimento de Linux como desktop na empresa. Infelizmente coisa que não tem como eu divulgar muito já que é inerente ao trabalho, mas que posso o conhecimento usar pra escrever por aqui.
E agora estou me aventurando bastante com raspberrypi. Logo devo incluir alguns scripts e dicas de uso do mesmo. Esse deve ser o ano de 2015, que pelas estatísticas de acesso não deve ser ainda o ano do Linux. Ainda.
A Priscila (@MayogaX) foi uma das pessoas que reclamou que eu tinha uma seção aqui sobre bancos de dados, mas nada escrito. Acho que finalmente chegou o momento de ter alguma coisa ;-)
Mantenho o maravilhoso e ultra moderno encurtador eri.cx, que agora passou a sofrer ataques constantes. Chato? É, mas ataque na Internet já virou lugar comum. Então temos de estar preparados. Sempre. O foco só mudou, pois antes esse tipo de ataque vinha por mail, com os SPAMs.
Entre os muitos scripts que tenho, tem um que verifica por alguns padrões de palavras como "cialis", "tramadol", "xanax" e "taladafil". Não tenho idéia do que sejam. Aliás o "xanax" dá uma certa idéia.
O que me faz pensar que esses links não são legítimos? Perfil de tráfego. São links que o número de cliques aumenta muito rápido. Com isso eu tenho uns scripts que fazem algumas verificações, inclusive com palavras chaves como essas. Se o link entra nesse perfil, eu removo pra uma tabela chamada "quarantine", salvando exatamente o formato de entrada. Em seguida eu troco pro meu próprio site. É uma propaganda subversiva, mas é mais legítimo que permitir que as pessoas caiam nesse truques.
Hoje eu resolvi dar uma olhada nos ataques, aliás nos logs dos ataques, e procurar um perfil. Então eu precisava pegar os IPs e procurar um padrão. Basicamente pegar via SQL os IPs, e fazer um count() na quantidade de vezes que apareciam e apenas mostrar aqueles que um padrão acima do normal.
O resultado foi esse aqui:
mysql> select ip, count(ip) as ip_count from quarantine group by ip having count(ip) > 10 order by count(ip) desc;
+---------------+----------+
| ip | ip_count |
+---------------+----------+
| 173.44.37.250 | 168 |
| 96.47.224.50 | 139 |
| 173.44.37.226 | 136 |
| 173.44.37.242 | 121 |
| 96.47.224.42 | 118 |
| 96.47.225.82 | 117 |
| 173.44.37.234 | 115 |
| 96.47.225.74 | 112 |
| 96.47.225.66 | 110 |
| 96.47.224.58 | 100 |
| 213.5.66.88 | 89 |
| 96.47.225.162 | 71 |
| 96.47.225.170 | 69 |
| 96.47.225.186 | 69 |
| 96.47.225.178 | 67 |
+---------------+----------+
15 rows in set (0.01 sec)
Com isso foi fácil ver um padrão claro de ataque de apenas alguns ranges IPs. Bastou uma pequena adição ao iptables pra acabar com a farra.
Começando 2015, todos se lembram de como foi 2014. Então resolvi escrever com um artigo sobre memória :)
Durante umas das discussões no grupo SOSLinux, alguém postou que já não usava Linux com swap fazia um tempo. Nos meus velhos conceitos Unix adquiridos no século passado isso era algo inconcebível. Uma heresia. Um motivo pra receber um belo dum RTFM.
Esse é o problema de ter "aquela mesma velha opinião formada sobre tudo", como dizia Raul Seixas. As coisas mudam. Os sistemas evoluem. Aquela recomendação de sempre se ter swap, e com fórmulas mágicas sobre seu tamanho, são coisas do passado, de uma era em que Linux era pra servidores e desktops. Agora Linux está em todo lugar. Na minha TV, no meu telefone, no meu tablet, e vai saber mais onde. Talvez já esteja até no meu café e eu ainda não saiba.
Mas o fato é que naquela época a idéia era que as máquinas seriam cada vez maiores, mais potentes, mais gigantes, mais mais, muito mais. Na verdade até são. Mas aconteceu um fato interessante: o cloud. Esse conceito permitiu uma forma de computação mais distribuída, com vários pequenos computadores ao invés de somente um maior. E esse conceito foi se espalhando. Se pensarmos hoje em dia nos celulares, eles são uma extensão computacional de algo que roda num datacenter. Temos uma parte do aplicativo rodando localmente, e outra parte na nuvem.
Nesse novo paradigma, não é preciso tanto swap quanto antes. Meu laptop tem 8 GB de RAM (tinha 12 GB com um pente extra de 4 GB que comprei no Dealextreme, mas o danado teima em dar problema de acesso e travar), mais que suficiente pra muita coisa.
Então resolvi experimentar.
Desabilitei o swap (swapoff /dev/mapper/vg-swap) e comentar a linha que o habilitava durante o boot no /etc/fstab. E funcionou. Mas bastou abrir chrome, firefox, thunderbird e eclipse pra coisa ficar feia (claro que a culpa é do java).
root@elx3030vlm-78:vm# head -16 /proc/meminfo MemTotal: 7926776 kB MemFree: 218640 kB MemAvailable: 889676 kB Buffers: 57568 kB Cached: 750036 kB SwapCached: 0 kB Active: 6672176 kB Inactive: 404504 kB Active(anon): 6282356 kB Inactive(anon): 55548 kB Active(file): 389820 kB Inactive(file): 348956 kB Unevictable: 65852 kB Mlocked: 65852 kB SwapTotal: 0 kB SwapFree: 0 kB
Quando chega próximo do limite de memória, eu simplesmente tenho de aguardar o kernel decidir matar alguma coisa pra eu conseguir mandar um comando. Até fiz um vídeo pra mostrar a situação.
{youtube}ga8lG2xE7wc{/youtube}
Nessas ocasiões a carga do sistema vai às alturas, provavelmente por troca de contexto de processos no kernel, tentando achar memória onde não tem.
Quando isso acontece, uma mudança do ambiente gráfico pro console e um reinicio do mesmo resolve. Mas é chato.
Esses são os load averages que consegui enquanto gerava o vídeo acima:
12:51:51 up 21:12, 6 users, load average: 36.61, 59.21, 75.31 13:01:24 up 21:21, 6 users, load average: 57.21, 51.78, 61.71 13:29:59 up 21:50, 6 users, load average: 110.99, 122.08, 107.70
Então melhor com swap? Não é tanto assim. O sistema evoluiu, mas o problema de gerenciamento de memória é coisa do Linux. Com swap esse tipo de problema também acontece, só demora mais. Eu já tinha visto isso justamente com criação de vídeo no kdenlive. Tinha um bug no melt, possivelmente um memory leak, que ia consumindo toda a memória. Travava? Não, mas tinha de aguardar o kernel matar o melt pra conseguir voltar. Isso levava de 4 a 6 horas. Usando somente RAM acontece o mesmo, mas é mais rápido, por volta de 20 ou 30 minutos.
Eu tentei achar alguma referência de tunning pra ajudar.
Memory Management Approach for Swapless Embedded Systems
http://linux-mm.org/LinuxMMDocumentation
O problema é que a maioria das informações são antigas. No kernel que estou usando, 3.17.7, não tem esses parâmetros. Mas eu tentei melhorar a responsividades alterando algumas coisas:
vm.laptop-mode = 1 vm.memory_failure_early_kill = 1 vm.memory_failure_recovery = 1
O resultado foi bastante satisfatório e agora o sistema tem estado mais responsivo durante alta carga que exige alocação de memória. E com mensagens interessantes vindas do kernel.
Out of memory: Kill process 24223 (chromium-browse) score 332 or sacrifice child Killed process 24223 (chromium-browse) total-vm:1360048kB, anon-rss:242548kB, file-rss:15632kB
Gosto de um sistema que exige sacrifícios.
Acho que agora o tão falado fim da rede social que revolucionou a comunicação na Internet chegou. Não digo em relação à investimentos, interface web ou mudança de tráfego. Falo de código.
Recentemente eu ministrei mais um coding dojo. O assunto escolhido foi... Twitter! Twitter e python. O motivo era simplicidade de ambos. Fácil fazer, rápido pra colocar em produção e testar.
Até preparei meu curso de python twitter pra inglês:
http://prezi.com/phgt99r0-3fx/?utm_campaign=share&utm_medium=copy&rc=ex0share
Palestra pronto, público pronto, então foi hora de bota a mão na massa. Pra não começar com algo enfadonho, aproveitei o intervalo de almoço pra criar uma conta na rede do twitter, pra justamente fazer a aplicação e brincar. A conta foi criada sem problemas, mas na hora de criar a aplicação e mudar a permissão de leitura pra escrita...
Uma das coisas que adorava no Twitter era a facildade. Bastava criar uma conta e usar. Sem burocracia. Então começaram com confirmação de e-mail. Até aí era tranquilo. Criava um mail a mais em um dos meus domínios de Internet e continuava em frente.
Mas agora é preciso cadastrar telefone. Um número pra receber... SMS de confirmação? Até entendo a parte de aumentar a segurança pro usuário com autenticação em 2 passos, mas... complicou. Não tenho várias linhas de prépago pra ficar cadastrando a cada novo usuário que eu criar pra dar um curso ou coding dojo.
Sim... pra mim isso significa o começo do fim. Não são os números, não são os investidores, não é o mercado. É o uso. É o hacking. Esse era o diferencial para mim.
Minhas outras aplicações mais antigas ainda funcionam. Ainda. Mas não sei por quanto tempo. Posso simplesmente cadastrar meu celular? Até poderia, mas não tenho tanto interesse assim que o Twitter ou qualquer outra rede saiba meu celular.
Então é isso... continuarei usando mas... não tanto. Nem pra cursos. Nem pra coding dojos.
É hora de mudar pra outra rede.
Due my current job, I can't offer anymore Debian professional consultant services. It could conflict to company interestes. But I can offer it for free.
So if you are a non-profit organization, like schools, and would like to have a Debian server place in your environment, I can give you certain services and/or directions.
Services that I can help you are:
Do you need them? Or even an install fest? Or someone to talk about Debian and Linux? Then just drop me a mail.
Mail: helio-arroba-loureiro-ponto-eng-ponto-brTwitter: @helioloureiroNo nosso ambiente de desenvolvimento utilizamos Jenkins pra Continuous Integration, ou seja, a cada "commit" de código, compilar e testar a versão de uma forma automatizada. Cada um pode conectar no servidor Jenkins e visualizar o status do build, mas deixamos um display aberto para que todos possam ver como as coisas andam (e não deixar um release quebrado parado pra sempre).
Nada melhor que usar um raspberrypi pra essa atividade, já que é um dispositivo pequeno e com baixo consumo de energia. Aliás é o treco pendurando pra baixo da TV. O único incoveniente é que pra mostrar mais de um servidor Jenkins, as opções atuais são pra utilizar algum código javascript que faz com que a tela troque de URL.
Essas soluções funcionam muito bem em PCs x86_32 e x86_64, mas em um raspberrypi... as limitações de CPU são grandes. Como os browsers que suportam isso são chrome/chromium e firefox, o efeito indesejado é essa "lentidão" em renderizar a página, como mostra a imagem.
Outro problema é que seu um dos servidores Jenkins estiver fora do ar, esses javascripts "quebram", não fazendo a transição pra url seguinte.
Pra completar o problema, decidimos mudar de chromium pra epyphany, pois o mesmo usa muito menos memória que o chromium, e menos CPU. Mas nem tudo é perfeito: o epyphany não suporta script pra trocar entre várias URLs como o chrome.
Durante essas trocas browsers e experimentos, troquei umas mensagens com o Gustavo Noronha, vulgo Kov, que é um dos mantenedores do epyphany, perguntando sobre as possibilidades do mesmo. Ele disse que epyphany não suportava esse tipo de plugin, mas que eu poderia escrever minha própria aplicação em webkit. Então...
Demorou. Acho que trocamos essas mensagens, via twitter, lá pro meio de outubro. Já é quase Natal. Mas finalmente escrevi alguma coisa.
Comecei com um pequeno script baseado num código em C++ com Qt:
#include #include int main(int argc, char **argv){ QApplication app(argc, argv); QWebView wv; QWebPage *page = wv.page(); QWebSettings *settings = page->settings(); settings->setAttribute(QWebSettings::JavascriptEnabled, true); settings->setAttribute(QWebSettings::PluginsEnabled, true); wv.load(QUrl("http://www.youtube.com")); wv.show(); return app.exec();
Acabei trocando o script simples pra uma classe em python, e usando threads. O que era simples ficou um pouco mais... vamos chamar de "refinado". Mas está funcionando. E com menos memória e CPU, que era o objetivo inicial.
Quem quiser dar uma brincada ou mesmo usar, o código está disponível no GitHub:
Isso mesmo. Olhando meus diretórios pra começar um backup, percebi que criei um arquivo com nome "-C". Provavelmente resultando de alguma comando errado.
O que fazer nesse caso? Em geral comandos como "rm" e "mv" não funcionam pois interpretam o "-C" como uma opção do comando, não como arquivo.
Existem várias formas de resolver isso, inclusive algumas mais fáceis via interface gráfica usando nautilus/dolphin ou algo do gênero. Mas vou mostrar a "forma UNIX" de resolver isso.
Primeiramente, onde está o danado do arquivo?
helio@linux:home$ ls backup -C helio fisl lost+found support
No caso estava no meu diretório "/home". E o que era o arquivo?
helio@linux$ home# ls -l total 646124 drwxr-xr-x 2 root root 4096 Nov 21 09:41 backup -rw-r--r-- 1 root root 661555200 Oct 9 12:05 -C drwxr-xr-x 367 helio linux 36864 Nov 21 09:43 helio drwxr-xr-x 6 fisl fisl 4096 Mar 5 2014 fisl drwx------ 2 root root 16384 Nov 16 2013 lost+found drwxr-xr-x 5 support admin 4096 May 17 2013 support
Agora vem o truque. Cada arquivo criado no seu filesystem tem junto um número de i-node, que é onde ele foi efetivamente gravado no disco. É possível usar a opção "-i" do comando "ls" pra verificar cada número de i-node de cada arquivo do diretório, seja um arquivo, seja um diretório, ou seja qualquer outra coisa (em Unix, tudo é arquivo).
root@linux:home# ls -i 15335425 backup 4741 -C 16252929 helio 14942209 fisl 11 lost+found 15466497 support
Verificado qual o número do i-node, 4741, agora é usar o comando "find" com opção de "-inum" pra mexer nesse arquivo, junto com um "-exec". Na opção "-exec", o arquivo encontrado é substituído pelo "{}", que é como se fosse uma variável com o que foi encontrado pelo parâmetros anteriores, no caso o "-inum".
Então basta usar isso pra renomear o arquivo pra qualquer outro nome.
root@linux:home# find . -maxdepth 1 -inum 4741 -exec mv {} arquivo_alien \;
Verificando...
root@linux:home# ls backup helio fisl lost+found support arquivo_alien
Agora descobrindo o que é esse arquivo.
root@linux:home# file arquivo_alien arquivo_alien: POSIX tar archive (GNU) root@linux:home# mv arquivo_alien arquivo_alien.tar root@linux:home# tar tvf arquivo_alien.tar drwxr-xr-x root/root 0 2014-10-09 12:05 home/ drwxr-xr-x fisl/fisl 0 2014-03-05 10:16 home/fisl/ drwxr-xr-x fisl/fisl 0 2014-03-05 10:16 home/fisl/.purple/ -rw-r--r-- fisl/fisl 173 2014-03-05 10:16 home/fisl/.purple/blist.xml drwxr-xr-x fisl/fisl 0 2013-07-04 22:21 home/fisl/.purple/certificates/
Realmente um arquivo do tipo tar. Provavelmente de algum backup que tentei fazer e passei a opção de forma errado. Sem stress e problema resolvido.
root@linux:home# rm arquivo_alien.tar
Durante uma conversa na rede social Diaspora (tenho uma conta no joindiaspora.com), aceite um desafio de ficar 1 mês fora do FaceBook.
Qual o motivo da ausência? Segundo o desafio, era impossível de se ficar fora da rede, que a rede nos obrigava a estar lá. O desafio também incluia uma ausência conjunta do Whatsapp, mas essa foi fácil, pois já faz algum tempo que substitui pelo Telegram. Entre as maiores vantagens desse, além da tão falada criptografia e segurança (que não acredito muito, mas vá lá) tem o fato de funcionar como webapp em qualquer browser. Isso facilita em muito a vida e não entendo as pessoas continuando a usar o Whatsapp. É tão anos 2010.
Mas voltando ao contro do assunto, e falando mais da ausência do Facebook. Foi assim, sem mais nem menos. Sem aviso. Apenas parei de usar. Como estava num processo de recuperação do meu celular - que eu tinha brickado tentando instalar cyanogenmod, o que consegui depois - então não tinha o app do Facebook no celular. Restava somente via browser, o que bastou somente não acessar.
Mantive o acesso do Twitter e do Google+, afinal, segundo o desafio, eles não tinham a dominação do Facebook e não fariam diferença. E claro, continuei com o Diaspora.
No fim até que foi um bom desafio pois pude ficar fora do Facebook justo durante o período das eleições. Até onde tinha visto, a coisa tinha virado briga de torcida, então foi um lado bom.
No Twitter não foi muito diferente, mas ao contrário do Facebook, Google+ e Diaspora, dá pra usar um aplicativo cliente não oficial, e esses em geral permitem filtrar tipo de posts indesejados. Então foi só botar algumas palavras-chave pra me ver livre da briga de torcidas das eleições.
No Google+ eu nunca usei muito, nem o Diaspora, mas essa ausência também não me fez aumentar o uso. Aliás o pouco que entrei em ambas as redes, as eleições davam o tom. Um tom de lixo não reciclável, que fedia a racismo e difamação, de todos os lados. Achei melhor assistir mais o Netflix.
Eu mantive meus aplicativos enviando mensagens pra dentro do Facebook, como Flickr e RunKeeper, onde geralmente posto minhas fotos (quase sempre do tempo fechado e frio) e meus passeios de bike. Não sei se tiveram repercurssão ou não, acho que vou descobrir agora.
O que mudou na minha vida então depois desse 1 mês fora do Facebook? Na verdade foi mais de 1 mês. Foram 5 semanas, pois esperei passar o segundo turno das eleições e depois resolvi esperar passar o chororô de quem perdeu. Apenas uma pausa: acho que ambos os candidatos eram só mais do mesmo. Ganhar um ou outro não mudará em nada pra onde a coisa está se encaminhando no Brasil e a resposta será amarga. Voltando ao assunto, senti falta dos grupos. Eu já não sou muito usuário da timeline, que passava de vez em quando dando <like> em tudo, e depois mudava pros grupos. Os que mais gosto são:
Tem outros grupos que gosto de participar também, mas nem todos são abertos ou eu participo tanto. Também perdi contato com os amigos que ficaram no Brasil.
Ainda não entrei com tudo no Facebook, mas foram poucas mensagens em que fui citado (68) e algumas pessoas tentaram conversar comigo (5). Dessas conversas, 4 foram de assuntos técnicos, com Linux.
Ou seja, em pouco mais de 1 mês fora do Facebook, 5 semanas, perdi 35 dias. E só.
Page 16 of 35