O Teorema do Lençol Curto (TLC) dispensa formalizações, sendo mundialmente conhecido e creditado ao pesquisador brasileiro Eduardo O. Freire. Menos conhecido, porém, é o fato grave relatado apenas em livros inacessíveis do Vaticano, e subliminarmente mencionado nos trabalhos do historiador português Eduardo Freire de Oliveira (provável parente permutacional do pesquisador brasileiro).
De fato, o historiador Eduardo Freire de Oliveira (virtualbss.com/book/category/eduardo-freire-de-oliveira/), em suas notas pessoais para o seu mais importante livro, também faz menção ao tal fato grave. Lamentavelmente, esse seu último e mais importante livro não foi publicado, e as notas do autor foram misteriosamente perdidas.
Felizmente, fontes seguras que estão juntando material a ser divulgado brevemente via WikiLeaks revelaram detalhes do caso, que deixam claro que, violando as regras básicas de causalidade, o linguista George Kingsley Zipf utilizou o TLC em sua mais importante contribuição científica, a chamada Lei de Zipf, sem dar o devido crédito ao pesquisador brasileiro Eduardo O. Freire!
Para que justiça seja feita, a seguir, a conexão entre as duas teorias é apresentada em termos adequado para moças, o que torna ainda mais evidente o escandaloso caso de plágio científico anti-causal.
Explicação: Seja um lençol (curto, pois todo lençol termina sendo curto em noite fria…), de comprimento C, que deve ser compartilhado por N indivíduos. Durante o sono, cada indivíduo entra em um estado primitivo de necessidades básicas, perdendo assim todo o polimento social. Dessa forma, podemos assumir que:
A1) cada indivíduo competirá, sem dó ou senso de justiça, pela maior parte possível do lençol.
A2) cada indivíduo i tem, aproximadamente, a mesma força F(i). Assim, inicialmente o indivíduo i toma para si um pedaço P(i) do lençol que é aproximadamente igual ao dos demais.
A3) como todos sabem, se P(i) for maior que P(j), mesmo que por um pequeno pedaço de pano, então o indivíduo i conseguirá agarrar melhor seu pedaço de lençol, logo terá mais tração para puxar e assim aumentar P(i) (realimentação positiva).
A4) considerando A3 ao longo do tempo, podemos dizer que o tamanho de pano que ele agarrará no instante k+1, Pk+1(i), é proporcional à força do indivíduo F(i), e ao tamanho de pano que ele já agarra no instante k, Pk(i).
Para não dar asas ao professor Lucas Brigão Matlab Molina, as consequências de A1-A4 serão ilustradas com Scilab:
Cenário: N=100 pessoas debaixo do mesmo lençol curto (suruba?), com apenas 2 m2 por pessoa:
N=100; C=2*N;
Todas têm aproximadamente a mesma força nos braços (por exemplo, 20% de flutuação numa escala de forças de 0 a 1):
F=0.2*rand(1,N)+0.8;
As forças podem ser normalizadas, de tal forma que elas possam ser tratadas como uma distribuição de probabilidades (probabilidades de ganho de lençol de cada indivíduo)
F=F/sum(F);
Assim, no instante inicial, cada indivíduo toma para si um pedaço de lençol que é proporcional à sua força:
P=F*C; plot(P)
Como esperado, cada indivíduo fica com, aproximadamente, 2 m² de lençol, o que certamente é pouco para a noite de frio que se avizinha, mas polimento social exige… Debaixo do sono, no entanto, cada um começa a puxar despudoradamente o lençol, agarrando como pode o seu pedaço com uma tração que depende do bocado de pano que cada um já agarra.
P=C*P/sum(P); // Isso é apenas para garantir que a soma dos pedaços dá mesmo C.
Essa linha de código não seria necessária se os erros numéricos não de acumulassem. P portanto representa inicialmente a divisão (humanamente aceitável) no início da noite fria, no instante k=1. No próximo instante de tempo (k=2), contudo, o individuo que tem um pedaço ligeiramente maior de lençol pode agarrá-lo mais firmemente e puxar para si um pouquinho mais, o que pode ser modelado como:
P=P.*F;
Se observarmos os pedaços de lençol no instante k+1, notaremos que começou a se estabelecer um desequilíbrio (oh, natureza injusta!):
max(P) = 2.44
min(P) = 1.57
Iterando esse procedimento, digamos, 500 vezes, é possível notar uma estabilização da distribuição:
F=0.2*rand(1,N)+0.8; F=F/sum(F); P=C*F; for k=1:500, P=C*P/sum(P); P=P.*F; end // max(P) = 100.08 // Latifundiário: tá com metade do lençol para si. // min(P) = 9.567D-46 // Pobre coitado: só ficou com o pó do lençol. tá passando frio!
Mais ainda, se os ‘latifundiários’ forem listados em ordem decrescente, os 5 mais bem aquecidos, nesta simulação específica, terão:
P=sort(P); // P(1:5) = 100.08199 70.631906 10.665961 7.951097 3.7030284
Isto é, o segundo maior latifundiário tem bem menos que o maior, mas muito mais que o terceiro, e os cinco juntos detêm 193 m² de um lençol que só tem 200 m² para 100 indivíduos. E nenhum deles precisou ser muito mais forte que os outros para que isso acontecesse – foi consequência de realimentação positiva com restrição de recursos. Este primeiro resultado é apenas uma instância do fenômeno, para uma dada distribuição inicial de forças e pedaços de lençol. Que tal refazer esse experimento 1000 vezes e ver, em média, como fica a distribuição de pedaços de lençol entre os 100 indivíduos…
Acum=zeros(1,N); for vez=1:1000, F=0.2*rand(1,N)+0.8; F=F/sum(F); P=F*C; P=C*P/sum(P); for k=1:500, P=C*P/sum(P); P=P.*F; end, P=sort(P); Acum=Acum+P; end Acum=Acum/1000; //Acum(1:10)' // ans = // 1.228287 // O maior latifundiário continua com aprox. metade do lençol para si. // 0.5240641 // 0.2409364 // 0.1159765 // 0.0554624 // 0.0269597 // 0.0128442 // 0.0059314 // 0.0028990 // 0.0014000
Se for feito um plot dos 50 maiores valores ordenados, em escala log:
plot(log(Acum(1:50)))
O que se nota é que a distribuição de pedaços do lençol curto segue uma tendência linear, que é o esperado de uma distribuição do tipo Zipf.
Possui graduação em Engenharia Elétrica pela Universidade Federal da Paraíba (1992), mestrado em Engenharia Elétrica pela Universidade Estadual de Campinas (1995) e doutorado em “Automatique Et Traitement Du Signal” pela Université Paris-Sud 11 (2000). Atualmente é professor adjunto da Universidade Federal de Sergipe. Tem experiência na área de interface entre Ciência da Computação e Engenharia Elétrica, com ênfase em Processamento Digital de Sinais e Reconhecimento de Padrões, atuando principalmente nos seguintes temas: clustering, processamento de sinais dinâmicos e estimação de informação mútua aplicados à biometria e à televigilância médica.