segunda-feira, 8 de dezembro de 2008

Fim da Aids!!!!!

Cientista prevê a erradicação da Aids




Um cientista francês que dividiu o Prêmio Nobel de Medicina acredita que em alguns anos será possível eliminar a transmissão da Aids. Luc Montagnier, diretor da Fundação Mundial de Pesquisas e Prevenção da Aids, afirmou a jornalistas, ao lado dos outros vencedores do Nobel de medicina, que interromper a transmissão da Aids fará dela uma doença semelhante a outras.

– Nosso trabalho, é claro, é encontrar tratamentos complementares para erradicar a infecção. Acho que não é impossível fazer isso em questão de alguns anos. Assim, espero assistir ainda durante minha vida à erradicação, se não da epidemia de Aids, pelo menos da contaminação... Isso pode ser conseguido – disse Montagnier.

Montagnier e Françoise Barre-Sinoussi, do Instituto Pasteur, dividiram metade do prêmio de 2008 pela descoberta do vírus que matou 25 milhões de pessoas desde o início dos anos 1980. Não existe cura para a Aids, que contamina estimadas 33 milhões de pessoas no mundo, mas coquetéis de medicamentos podem controlar o vírus e conservar a saúde dos pacientes. Tampouco existe uma vacina, embora pesquisadores estejam tentando descobrir vacinas que impeçam a contaminação com o vírus ou o controlem, para que os pacientes tenham menos chances de transmiti-lo a outras pessoas --algo conhecido como vacina terapêutica.

O cientista alemão Harald zur Hausen, da Universidade de Duesseldorf, recebeu a outra metade das 10 milhões de coroas suecas (1,2 milhão de dólares) do prêmio, graças à descoberta da causa do câncer cervical. Os três cientistas disseram que, desde o anúncio do prêmio, no início de outubro, vêm dando entrevistas constantemente e conversando com líderes mundiais.

– Evidentemente existe entre muitos políticos e algumas outras pessoas a idéia de que a gente sabe tudo, o que obviamente é bobagem. Mas não podemos ignorar isso – disse zur Hausen.

Barre-Sinoussi, que viera do Senegal, onde tivera uma reunião com o presidente do país africano, concordou.

– Minha impressão é a mesma. Acho que temos a responsabilidade de tentar exercer uma influência, especialmente junto aos políticos – disse.

A cientista teme que a crise financeira global possa levar alguns países a diluir seu compromisso em combater doenças como Aids, tuberculose e malária, e disse que é importante os vencedores do Nobel tentarem fazer bom uso de sua influência.

Por Redação, com agências internacionais - de Londres

domingo, 7 de dezembro de 2008

Química Orgânica Parte 2

Química Orgânica Parte 1


Awe akele video de quimica Organica para tirar akelas duvidas este assunto cai muito nos vestibulares

sexta-feira, 5 de dezembro de 2008

quinta-feira, 4 de dezembro de 2008

Modelos Atomicos Parte 2



Awe galera Mais um video ai para vc's agora sobre Modelos atomicos..jah jah vem mais videos so Química, Física e mais outras coisas ate a próxima

Novos aterros especiais e a maior oferta de fornos de cimento para co-processamento ampliam o leque de alternativas para a destinação segura de resíduos



Enquanto a indústria não consegue fechar seu ciclo produtivo, reciclando ou utopicamente acabando com os descartes, o mercado nacional de gerenciamento de resíduos industriais cresce a uma taxa média de 10% ao ano. Mais alternativas de aterros especiais e de co-processamento em fornos de cimento, além de investimentos em incineradores (ver QD-384, pág.36), criam as condições adequadas para o setor secundário manter seu crescimento no futuro sem precisar jogar resíduo perigoso em qualquer terreno baldio.




Se depender do número de projetos em andamento ou recém-finalizados, realmente não haverá mais desculpas para a indústria infratora. Para os resíduos classe 1 – os perigosos por serem inflamáveis, tóxicos, patogênicos, reativos ou corrosivos –, há dois novos aterros especiais em fase final de licenciamento em São Paulo e outro em Vitória, no Espírito Santo, inaugurado em agosto. Além disso, os aterros mais antigos passam por uma fase de diversificação de serviços e aperfeiçoamento de seus sistemas de pré-tratamento. Quando se fala no co-processamento, também mais voltado para o classe 1 (gerado no País em cerca de 3 milhões de t/ano), a entrada de grandes grupos internacionais dá o tom nos investimentos. Para começar pela destinação em aterros, o destaque fica por conta dos projetos da Sasa, de Tremembé-SP, e da Cavo, do grupo Camargo Corrêa, em Caieiras-SP, ambos em operação até meados de 2001. O primeiro, pertencente ao grupo norte-americano Waste Management International, deve começar a receber resíduos depois de março do próximo ano. Fundado por grupo nacional (Irmãos Borlenghi) para receber areia de fundição da Ford e lixo domiciliar, a conclusão do chamado aterro número 4 (classe 1) é a parte final de um investimento de US$ 14 milhões, iniciado com a compra da Sasa pelos americanos em 1996.


O aterro foi construído na parte mais alta do site, no topo de um morro cujo lençol freático fica a mais de 30 metros de profundidade. De acordo com o superintendente comercial da Sasa, Breno Palma, toda a concepção do projeto, embora comum ao padrão dos mais de 300 aterros de propriedade da Waste Management pelo mundo, é inédita no País. Diferente dos demais em operação, não utiliza várias valas para o armazenamento dos resíduos, mas uma imensa e única célula. “Essa disposição aproveita melhor o espaço do terreno, pois deixa-se de perder as áreas entre cada vala”, explica Palma.


Construída entre janeiro de 1999 e julho de 2000, período no qual foram removidos 150 mil m³ de terra, a célula da Sasa, com cerca de 15 metros de profundidade, comporta 350 mil m³ de resíduos, o que lhe garante vida útil próxima a 20 anos. Por não possuir cobertura fixa, o projeto contempla ainda um sistema de bombeamento e tratamento do chorume gerado pela chuva e pelo próprio resíduo, nos moldes dos outros aterros do site para classe 2 (resíduos não inertes), 3 (inertes) e doméstico. Todo o chorume é bombeado para tanques para posterior tratamento em estação e a água limpa segue para uma lagoa de decantação para reaproveitamento. Outro cuidado mais urgente para evitar lixiviação é não dispor os resíduos quando houver chuva, momento no qual ficam armazenados em galpão apropriado. Além disso, a partir de janeiro, o chorume de todos os aterros, inclusive os do classe 1, passarão por um evaporador que será alimentado pelo biogás do aterro doméstico, hoje canalizado mas queimado em um flaire. Depois de evaporado, os resíduos da emissão passam por uma pós-queima.




Com o evaporador, importado da matriz, além de continuar a manter o local livre do mau odor do gás metano (e dos indefectíveis urubus), evita-se o atual custo de transporte no envio do efluente pré-tratado para tratamento biológico na Sabesp, de São José dos Campos-SP. Por possuir apenas um pequeno córrego de baixa vazão cortando parte dos 120 hectares de seu terreno, mesmo se a empresa quisesse fazer o tratamento biológico no local não seria possível descartar o efluente. Caso contrário, transbordaria o pequeno rio.


Quando dispostos no aterro, os resíduos permanecem cobertos com lona e/ou argila, mas a proteção mais diferenciada da célula, segundo o superintendente Palma, é ainda a sua impermeabilização. “Nosso sistema, por seguir a política global da matriz, supera a norma de aterros para classe 1”, diz. Além das duas camadas de lâminas de PEAD (uma superior de 2 mm e outra inferior de 1,5 mm), o chamado “sanduíche do revestimento” contempla entre elas uma manta de bentonita para detecção de fuga. No caso de vazamento de chorume em algum ponto da camada de PEAD superior, pelo contato do líquido com a bentonita esta “incha” no local e veda o pequeno rasgo temporariamente. Ao ser pressionado pela manta, o chorume segue para uma camada de tecido geotêxtil, colocado acima do PEAD e abaixo de um colchão drenante de pedra. No tecido, o líquido é drenado até um ponto de leitura, onde aciona-se um alarme. De acordo com Palma, outra determinação da matriz é importar, tanto a manta de polietileno como a bentonítica, da companhia também americana National Seal Company (NSC). Para a instalação das mantas foi encarregada uma empresa credenciada, a argentina Sicsa. Segundo o superintendente, os testes de controle de contenção exigidos pela NSC são mais rigorosos do que os da Cetesb. No Brasil, explica Palma, só se exigem testes pneumáticos, nos quais se avaliam possíveis vazamentos por meio da injeção de ar, ou por sistemas elétricos. Já os da NSC são feitos por tração e descolamento, nos quais os técnicos retiram amostras das mantas em seus pontos de cola (por termoformagem) para a realização de testes de resistência mecânica em bancada.


Escrito Por MARCELO FURTADO

Ataque Microbiano Remedias Àreas Contaminadas




Cresce o uso de aditivos de bactérias e fungos para tratar efluentes e biorremediar solos.


Longe de ser enredo de um filme B de ficção científica, o incremento em laboratório de bactérias e fungos, com o fim de aumentar seus poderes de biodegradação, já é uma realidade no mundo e começa a se desenvolver com rapidez no Brasil. Usadas em estações de tratamento de efluentes para aperfeiçoar a etapa biológica, mas também indicadas para projetos de biorremediação de solos contaminados, essas colônias microbianas são cada vez mais comercializadas. Principalmente empresas importadoras, como Micro-Bac, Bio-Brasil e BioClean, vendem esses aditivos biológicos sobretudo para uso em tratamento de efluentes, de forma crescente, desde o início dos anos 90. Alguns fatores tornam as perspectivas desse segmento ainda mais promissoras. Para começar, o País já conta com produção local das formulações de microrganismos. Uma empresa de Sorocaba-SP (Hábil Química), depois de dois anos de estudos, iniciou-se nesse mercado em 2000, ofertando produtos a custos menores do que os de seus concorrentes importadores. Outro aspecto de suma importância é a pesquisa nacional, em instituições renomadas como o Instituto de Botânica de São Paulo e a Empresa Brasileira de Pesquisa Agropecuária (Embrapa), estar desenvolvendo projetos de biorremediação de solos com bactérias e fungos. Essas pesquisas resultarão no futuro em licenciamentos tecnológicos para outras empresas nacionais iniciarem novas produções.


Na verdade, tanto a produção como a pesquisa nacional demonstram apenas um esforço em reduzir o atraso do Brasil em comparação aos países desenvolvidos. Não há muito como esperar muitas inovações locais, visto o elevado grau de desenvolvimento dessas tecnologias no mundo. Empresas americanas e européias produzem dessas formulações há mais de 30 anos e, pelo lado da pesquisa, a literatura científica internacional já conhece as famílias de microrganismos e os principais poluentes orgânicos e alguns inorgânicos que elas podem degradar. Portanto, o mérito das iniciativas brasileiras está mais na nacionalização tecnológica.Aditivos nacionais – O caminho percorrido pela Hábil Química para constituir sua linha de aditivos demonstra bem esse esforço nacional. Mesmo existindo em livros de microbiologia boa parte das informações necessárias para se saber qual bactéria ou fungo tem facilidade para degradar determinado tipo de contaminante, a empresa precisou de paciência para chegar às suas formulações de bactérias, fungos e também protozoários. Isso porque o know-how de produção e de aplicação dos aditivos depende muito de uma experiência de campo e de pesquisa aplicada que a empresa não possuía. Grandes empresas estrangeiras, como as americanas Micro-Bac e BioSystems, detêm essa massa crítica, mas logicamente a escondem a sete chaves.


Nesse aspecto, ninguém melhor do que a gerente de meio ambiente da Hábil Química, Gilza Minatel, para confirmar essa dificuldade em conhecer os principais segredos tecnológicos. Ex-técnica da também ex-representante da Micro-Bac no Brasil (agora a multinacional possui subsidiária brasileira), Gilza diz que a empresa americana tinha muita relutância em revelar os principais detalhes das formulações para os técnicos da representação. “Nós apenas aplicávamos o grade específico para o tipo de contaminante orgânico do efluente e sequer sabíamos quais eram as cepas contidas na formulação”, informa. Isso, segundo ela, dificultava a solução de possíveis problemas futuros de aplicação.

Gilza selecionou microrganismos locais


Essa desconfiança da Micro-Bac, porém, não desanimou os planos da bióloga. Após sair da empresa na metade da década de 90, juntou seu conhecimento de aplicação adquirido por esforço próprio com incursões em pesquisas em universidades, para começar a montar a base da divisão de biotecnologia da Hábil Química em 1998. Além de se valer do conhecimento científico existente de microrganismos, a técnica partiu para selecionamentos contínuos em laboratório a fim de separar as melhores bactérias, fungos ou protozoários nacionais para serem multiplicados e depois aplicados.


O procedimento começa com a coleta de amostras dos efluentes para identificação, em laboratório externo, de todos os microrganismos presentes. A etapa seguinte será solicitar o isolamento das colônias degradadoras. De forma geral, apenas 10% terá capacidade de mineralização, ou seja, de degradação total, ao utilizar o poluente como fonte de carbono e energia e a partir daí assimilando-o até transformá-lo em gás carbônico, água e sais. Segundo Gilza Minatel, as selecionadas são cepas facultativas (anaeróbicas e aeróbicas) e já conhecidas na literatura como degradadoras dos contaminantes orgânicos.


A seguir, no laboratório da Hábil são promovidos ensaios para conhecer os mais efetivos na metabolização, sobrando cerca de dez a 18 cepas para cada formulação. Faz parte desse processo saber quais nutrientes devem ser agregados para manter as cepas em equilíbrio e, sobretudo, a bioaumentação, uma fase de multiplicação das bactérias com nutrição em pés de cuba. Depois de multiplicadas, elas são liofilizadas, para se manterem em dormência, e acrescentadas a nutrientes, sacarose e nitrogênio (meios de propagação). Seu veículo para a aplicação é o amido de milho, onde as cepas ficam “adormecidas” e apenas são ativadas em contato com a água.


As formulações, baseadas principalmente nos gêneros Mycobacterium, Anhtrobacter, Nocardia, Bacillus e Aspergillus, estão sendo aplicadas para remoção de orgânicos em efluentes industriais e em caixas de gordura, fossas sépticas e esgotos de restaurantes, shoppings e prédios. Na aplicação em estações são dosadas em lagoas de aeração ou para incrementar lodo ativado no tratamento biológico. De acordo com a gerente da Hábil, os produtos aumentam a eficiência de depuração orgânica para até 97%.


Com clientes como Ambev, Sadia, Seara, OPP e Laboratório White, em um ano a empresa conseguiu atingir um patamar de vendas de 6 t/mês desses agentes biológicos, faturando em sua divisão de biotecnologia R$ 400 mil mensais. Para Gilza, a razão principal do rápido sucesso é o maior rendimento de seus produtos em comparação com similares importados. Mesmo dentro do preço médio do mercado de R$ 90,00 o quilo, a gerente considera seus aditivos até vinte vezes mais concentrados de mircrorganismos.


Escrito por Marcelo Rijo Furtado


A Torre da PqU opera a seis ciclos de concentração


PQU USA ÁGUA FLUVIAL NA TORREE ECONOMIZA US$ 2,7 MI POR ANO


PROJETO PERMITE À PETROQUÍMICA UNIÃO, DE MAUÁ-SP,UTILIZAR APENAS O POLUÍDO RIO TAMANDUATEÍ PARA ABASTECER SUA TORRE DE RESFRIAMENTO, E DEIXAR DE PAGAR PELA CARA ÁGUA MUNICIPAL


O principal sistema de resfriamento instalado na Petroquímica União (PqU), em Mauá-SP, apresentava diversos problemas associados ao uso de água de reposição de má qualidade e em combinação com as condições operacionais críticas dos trocadores de calor. As fontes de água de reposição disponíveis para esta instalação eram água municipal e fluvial. A qualidade da água municipal é excelente, sendo a sua maior desvantagem o alto custo de US$2,95/m3. Embora o custo da água fluvial (Rio Tamanduateí) seja mais baixo, US$0,32/m3, sua qualidade é muito inferior do ponto de vista de corrosão, deposição e fouling (incrustração) microbiológico. A água fluvial passava por processo de filtração e cloração, entretanto, continuava a apresentar um alto nível de amônia, matéria orgânica, turbidez e sólidos suspensos.


Tabela 1 - Composição da água fluvial


Além disso, são encontrados vários tipos de microrganismos na água do Rio, inclusive bactérias anaeróbicas. A metalurgia do sistema é constituída por cobre, latão admiralty, cobre-níquel e aço carbono, possuindo trocadores com água tanto do lado casco quanto do lado tubo. Em conseqüência da má qualidade da água fluvial e das severas condições operacionais dos trocadores com baixa vazão de água e alta temperatura de película, surgiam vários problemas, quando o sistema de resfriamento não era tratado de maneira adequada. Tal como documentado, a planta apresentou uma rápida e intensa perda de transferência térmica nos trocadores de baixa vazão, parada de trocadores de calor individuais, ou de produção inteiras, além de substituição freqüente dos feixes de troca térmica. Afora as condições operacionais desfavoráveis, o sistema também apresentava vazamentos de processo de hidrocarbonetos, com sensível impacto sobre o programa de tratamento em termos de manutenção de um controle eficaz da corrosão, da deposição e dos microrganismos. A solução para esses problemas, ou seja, a aplicação no sistema de um programa de limpeza em linha, englobou uma tecnologia de produtos resistentes aos halógenos, à base de AEC/HRA/HPSI (Dianodic Plus, da BetzDearborn), que trouxe os seguintes benefícios à unidade da PqU:– Economia de US$2,7 milhões por ano através da utilização de 100% de água fluvial como reposição na torre de resfriamento, ao invés da mistura de água municipal/fluvial.– Operação da torre de resfriamento com ciclos maiores, ou seja, seis ciclos. Isto levou a uma redução de 28 m3/h na descarga da torre, minimizando o impacto ambiental e diminuindo os custos do programa de tratamento.– Redução das taxas de corrosão em aço carbono e cobre/liga, ou seja, menor que 2 mpy e 0.3 mpy, respectivamente, levando a um prolongamento da vida útil dos equipamentos e redução dos custos operacionais e de manutenção.– Aumento da confiabilidade operacional das unidades de processo. Com base nos dados coletados até o presente, será possível alcançar a meta de cinco anos de campanha.Também procuramos deixar claras as economias e os resultados do programa, o qual dividimos em duas fases:


Fase I – A primeira fase do programa foi a limpeza em linha e foi realizado de setembro a novembro de 1998. Face a deficiência da transferência de calor decorrente de problemas de corrosão, deposição e contaminação microbiológica, o índice operacional da planta apresentava-se inferior do que a sua capacidade projetada.


Tabela 3 - Trocadores de calor - dados operacionais


Nesta época, a torre de resfriamento operava com 4,5 ciclos e a água de reposição consistia de uma mistura de 70% de água fluvial e 30% de água municipal. A monitoração do sistema indicava que a contagem microbiológica, o nível de bactérias redutoras de sulfato e as taxas de corrosão eram consistentemente elevados. Em conseqüência, alguns dos trocadores de calor críticos exigiam limpezas freqüentes. Foi implantado, em setembro de 1998, um programa de limpeza em linha para solucionar estes problemas e otimizar a taxa de produção. Foram utilizados monitoramentos exclusivos e representativos para acompanhar a evolução do programa de limpeza em linha.


Fase 2 – Consiste no tratamento propriamente dito e começou em setembro de 1998, estendendo-se até o presente momento.Simultaneamente, com a aplicação do programa de limpeza em linha, foi aplicado um novo tratamento ao sistema de resfriamento com a tecnologia Dianodic Plus com o objetivo de alcançar as seguintes metas principais:1) Utilizar 100% de água fluvial como reposição;2) Operar a torre com 6 ciclos de concentração;3) Campanha de 5 anos, sem limpeza dos trocadores de calor;4) Manter as taxas de corrosão do aço carbono e cobre/ligas inferiores a 2,0 mpy e 0,3 mpy, respectivamente.Em vista da má qualidade da água de reposição, os três primeiros objetivos representam um desafio substancial em termos do desempenho do programa de tratamento. Para garantir a continuidade da eficiência do desempenho do programa, foi implantado um programa de monitoração e controle para, inicialmente, avaliar a limpeza do sistema e em seguida disponibilizar ferramentas para reação em tempo hábil a alterações adversas das condições do sistema.


Escrito por ALTINO BENTO E RICARDO FERNANDES
CURTUME EMPRESA GAÚCHA ENFRENTAGIGANTES DA QUÍMICA DO COURO


Uma das primeiras empresas de capital nacional criada com a finalidade de fabricar insumos químicos para a indústria de curtume foi a MK Química do Brasil, com sede em Portão, no Rio Grande do Sul, a 45 km de Porto Alegre, fundada em 1979. Competindo com pesos pesados da química mundial como a Bayer, a Basf e a antiga Sandoz, a empresa surgiu voltada à produção, desenvolvimento e distribuição de produtos químicos para diversas áreas da atividade industrial.

Hoje, exporta para os cinco continentes, sendo que 70% de seus clientes no exterior estão no México, Estados Unidos e China. A produção da MK é de 1.600 toneladas/mês na linha couro, embora a capacidade instalada seja de 2.500 toneladas/mês. Ainda que atue com foco principal para a indústria de couro, a MK estendeu sua produção para a área de tintas e revestimentos, entre outras.




A Fábrica produz 1.600 t/mês. Segundo seu fundador Milton Kogler, um dos principais diferenciais da MK é sua equipe técnica altamente especializada, o que tem destacado a empresa no desenvolvimento de soluções eficientes, ecológicas e econômicas para os seus clientes.Conforme Kogler, desde a sua fundação, a MK adotou ferramentas para garantir a qualidade de seus produtos e serviços. Certificada pela ISO 9001, a melhoria contínua de seus processos tem dado à MK reconhecimento nacional na área da qualidade. “Fazemos questão de transmitir confiança a nossos clientes”, assegura Kogler. “A ação de sua assistência técnica, a sua estrutura logística e o suporte interno garantem ao cliente toda a segurança que este pode esperar de um fornecedor estratégico”, acrescenta o empresário. Com a descentralização da indústria de curtumes para o Norte-Nordeste do País, a MK decidiu abrir uma filial em Juazeiro, na Bahia, onde opera desde 2000 e abastece os curtumes da região. F. C.

Teoria ddo Caos 2

A instabilidade das equações não-lineares


No primeiro artigo sobre a Teoria do Caos, apresentou-se o histórico desta nova ciência, que nasceu na meteorologia e acabou sendo base para uma análise "caótica" de outras áreas da ciência (economia, sociologia, ciências políticas etc.).No âmbito da ciência clássica, o determinismo imperava: o relógio simbolizava a ordem do universo. Tudo podia ser previsto, bastava que fossem encontradas leis de funcionamento.





O Demônio de LaplaceEsse tipo de visão de mundo ganhou o nome metafórico de "Demônio de Laplace". Este cientista francês havia proposto que, se uma entidade soubesse todos os dados de cada partícula do universo e fosse capaz de fazer os cálculos necessários, poderia prever o seu funcionamento com perfeição.Assim, este "demônio" (quem sabe um super-hipercomputador?) daria conta de explicar todo o passado o presente e o futuro - do universo e da humanidade. Por exemplo, na sociologia, se a mecânica de uma sociedade pudesse ser entendida, o funcionamento desta mesma sociedade poderia ser previsto.No plano da física, todas as equações utilizadas seriam determinísticas. Qualquer equação que determinasse um fenômeno teria sempre um resultado específico. Todas as diferenças que se notassem em relação à realidade seriam fruto da imprecisão nos cálculos ou na sua formulação. Equações não-linearesConforme se viu no artigo acima citado, o meteorologista Lorenz verificou que certas imprecisões não eram causadas pela imprecisão nos cálculos ou na teoria, mas nas próprias resoluções das equações não-lineares.Lembramos que as simplificações - do ponto de vista estritamente teórico - podem levar as formulações não exatas. Mas elas têm o seu valor, se pensarmos em termos didáticos.Vamos a um exemplo:Imagine a seguinte fórmula: ax2 + bx + c = 0. Se a, b e c são constantes, a sua solução já é conhecida, ou seja, ela possui duas soluções válidas:




Mas, se a, b e c fossem funções do tempo, para cada instante poderiam ser determinados outros valores de a, b e c e resolvido nas equações acima.Isso é uma equação não-linear. Sua solução não poderia ser expressa por uma nova função no tempo:




Vamos supor que a equação acima represente, por exemplo, a quantidade de chuva que se precipitará em um certo lugar em função do tempo. E que a parcela a(t) seja a influência da pressão e vento, a parcela b(t) seja a influência da umidade relativa do ar e a parcela c(t) a da temperatura.Ora, sempre que esta equação for resolvida para 10 dias, o resultado será o mesmo. Vamos supor que 50 mm de chuva.Até aqui tudo normal e "previsível". Mas nós sabemos que não chove 50 mm a cada 10 dias em nenhum lugar do mundo. O que deve ser mudado então nesse raciocínio? Resposta: as condições iniciais.Ou seja, imagine que se queira a previsão do tempo para daqui a 10 dias. Colocam-se as condições de pressão e vento, umidade do ar e temperatura de hoje e obtém-se o resultado.Os resultados com as equações não lineares provaram ser muito melhores, em termos de modelo, do que os lineares.


O caos


O que é então o caos? O que Lorenz descobriu é que se, em vez de colocar, por exemplo, a temperatura de hoje de 15° C ele colocasse 15,000000001° C as diferenças nos resultados seriam imensas, podendo ir de 50 mm para 5 mm, e que se fosse de 15,000000002° C o resultado poderia ser 70 mm.Veja que isso não tem nada a ver com a precisão dos cálculos ou da formulação. É uma característica deste tipo de equação (não-linear).Essa instabilidade nas equações-não lineares é chamada de caos.Note-se também que, no exemplo acima, as divergências aparecem para resultados cada vez mais distantes das condições iniciais.


O Efeito Borboleta


É aí que chegamos ao efeito borboleta: qualquer pequena variação no fator a(t), como o bater de asas de uma borboleta, poderia causar grandes variações de precipitação nas soluções finais.

Escrito por Carlos Alberto Campagner

Teoria do Caos

História e aplicações

(Edward Norton Lorenz)
Não é sempre que podemos assistir ao nascimento de uma nova ciência. No entanto, isso aconteceu em 1955, quando um cientista chamado , com 38 anos de idade, começou a trabalhar no corpo docente da Boston Tech (hoje chamada de MIT - Instituto de Tecnologia de Massachusetts). O departamento era o de Meteorologia, Edward Norton Lorenz, pioneiro da teoria do caosque acabava de iniciar um projeto de previsão estatística do tempo.Nos Estados Unidos, a previsão do tempo é uma verdadeira mania nacional, e os comentaristas do tempo nos noticiários da TV são venerados como astros da telinha. Logicamente, a previsão do tempo tem um papel muito importante, não só para a vida do cidadão comum, mas principalmente para a agricultura e os negócios que giram em torno dela. É essencial saber com antecedência o que vem por aí: tempestades, furacões, etc.


Previsão linear
As previsões estatísticas do tempo eram do tipo linear, ou seja, as equações das previsões tinham constantes e apresentavam uma certa periodicidade inerente ao sistema linear.Não satisfeito com os resultados das previsões por equações lineares, Lorenz propôs, em um simpósio de 1955, a utilização de equações não lineares, ou seja, em que, ao invés de as constantes multiplicarem as variáveis, as funções multiplicariam.Exemplo:ax2 + bx + c = 0onde a, b, c são constantes = equação linearQuando a, b, c forem funções, normalmente em razão do tempo, e não constantes, a equação acima se torna não linear.


Condições iniciais e resultados

Tais equações possuem soluções não periódicas, gerando um modelo mais próximo da realidade. No final da década de 1950, Lorenz parou um processamento no meio e, ao retomá-lo, percebeu que os resultados não eram os mesmos do processamento anterior. Os resultados eram parecidos nos instantes iniciais, mas as alterações ficavam cada vez maiores diferindo muito dos processamentos anteriores.Ao invés de jogar aquela pilha de resultados no lixo, começou a analisá-los e chegou à conclusão de que quando se mudavam as condições iniciais os resultados finais eram totalmente diferentes. Isto foi denominado de caos.Até aqui tudo bem, mas, a resolução de tais equações requer um esforço computacional enorme. Supercomputadores são utilizados para este fim. Normalmente a resolução destas equações é feita por processos numéricos e não literais.

Efeito borboleta
Um dos elementos chaves da teoria do caos é o chamado "efeito borboleta", segundo o qual o bater de asas de uma borboleta pousada na muralha da China pode causar uma tempestade em Nova York. Isso significa, na verdade, que pequenos fatores podem provocar grandes transformações.Veja que se a previsão meteorológica é difícil em países temperados, nos paises tropicais os fatores influentes e, por conseguinte, as variáveis são inúmeras e mais complexas.


Conseqüências inesperadas
A teoria do caos deu origem aos fractais e suas bases foram expandidas em outras áreas. Como um pequeno boato pode influenciar a bolsa de valores?Se você se atrasar um minuto para sair de casa, pode perder o metrô de um certo horário, que pode provocar a perda de um ônibus para o aeroporto, que pode evitar a tomada de um avião que acabou caindo e matando todos os passageiros e tripulantes.


De volta à meteorologia

Existe uma história a respeito da previsão meteorológica que chateia muito os meteorologistas, mas que vale a pena conhecer.Em um país tropical (sul americano e subdesenvolvido cujo nome será aqui omitido) o acerto da meteorologia estava na casa dos 25%. Para melhorar tal índice foram gastos milhões de dólares em equipamentos e especialistas. Após anos de muito investimento e trabalho chegou-se ao extraordinário índice de 38% de acerto.Porém, se ao invés de tantos milhões de dólares gastos, toda a parafernália meteorológica fosse trocada por uma moeda de um dólar, no cara ou coroa, a previsão teria fatalmente um índice de acerto de 50%. Faz pensar, não é mesmo?

Escrito por Carlos Alberto Campagner

O Futura Da Quimica!!!

Petrobras: Empresa é recordista na extração de óleo em águas profundas.
A Petrobras é um caso raro de empresa de um país em desenvolvimento que conquistou espaço e liderança no mercado mundial. Atualmente, a Petrobras está presente com atividades operacionais ou escritórios em 27 países e ocupa o 14º no ranking entre todas as empresas de petróleo -entre as companhias de capital aberto, a posição da Petrobras melhora ainda mais e a empresa fica em 7º lugar.O embrião para o surgimento da Petróleo Brasileiro S/A, a Petrobras, foi a Lei 2.004, sancionada no dia 3 de outubro de 1953 pelo presidente Getúlio Vargas, que estabelecia o monopólio da União sobre as atividades da indústria petrolífera. A mesma lei determinava, também, que a União tinha autorização para constituir a Petrobras, fato que aconteceu no dia 12 de março de 1954, poucos meses antes do suicídio do presidente Vargas, ocorrido no dia 24 de agosto.


"O Petróleo é Nosso"
Em 2 de abril do mesmo ano, o governo editou o decreto 35.308, aprovando a criação da empresa, que nasceu sob uma grande campanha nacionalista. Durante mais de dois anos, políticos, empresários e sindicalistas favoráveis à criação da companhia participaram da campanha "O Petróleo é Nosso", que se espalhou por todos os Estados do país.A história de nacionalizar a produção dos bens do subsolo, no entanto, é muito anterior à criação da Petrobras. Na década de 30, o escritor Monteiro Lobato escreveu muitos artigos para jornais defendendo a soberania do Brasil em relação à produção do petróleo. No final da década de 30, em um bairro da periferia de Salvador, na Bahia, foi descoberto o primeiro poço de petróleo do Brasil. O bairro recebeu o nome de Lobato, em homenagem a Francisco Rodrigues Lobato, proprietário da fazenda onde foi encontrado o "ouro negro", como era conhecido o petróleo à época.

Petrossauro
Entre 1954 e 1977, a Petrobras reinou sozinha no Brasil. A empresa tinha o monopólio de exploração e produção de petróleo, gás natural e derivados. Foi justamente neste período que a estatal foi acusada por muitos especialistas de ser uma empresa acomodada e ineficiente, recebendo o apelido pejorativo de "Petrossauro": a empresa seria enorme e antiquada, assim como os dinossauros.Durante grande parte da década de 70, os funcionários da Petrobras apresentavam uma produtividade 25% inferior à média registrada na indústria e o Brasil era obrigado a importar petróleo, mesmo tendo uma empresa que detinha o monopólio do setor. A mudança de perfil começou na década de 80, quando a Petrobras passou a investir mais em tecnologia e expandiu os seus negócios.

Auto-suficiência
A Petrobras começou as suas atividades produzindo cerca de 2.700 barris por dia. Mais de meio século depois, a empresa fechou janeiro de 2008 produzindo 1,826 milhão de barris/dia de petróleo. No exterior, no mesmo período, a empresa produziu 227 mil barris por dia de óleo e gás.Além da melhoria em seu desempenho, que pode levar o Brasil à auto-suficiência na produção de petróleo nos próximos anos, a Petrobras também apresenta um grande diferencial, quando comparada às suas concorrentes: a empresa brasileira é recordista mundial na extração de óleo em águas profundas.
Escrito por Manuela Martinez

O que é Alotropia

Oxigênio e ozônio, grafite e diamante, etc

Fábio Rendelucci

Um elemento químico forma alguma substância. Quando a substância é formada apenas por um tipo de elemento ela é chamada de substância simples, lembra-se? Será que um mesmo elemento pode formar substâncias diferentes?A resposta é sim e esse fenômeno é chamado de alotropia. Alótropos são substâncias diferentes formadas pelo mesmo elemento. Esquisito? Garanto que um deles é conhecido de vocês: oxigênio (gás) e ozônio (gás).O oxigênio gasoso - aquele que respiramos - tem fórmula molecular O2 e o gás ozônio - da tão falada camada de ozônio que está toda esburacada - tem fórmula O3. Percebeu que os dois são formados pelo mesmo elemento - oxigênio - e que a diferença entre eles está no número de átomos de cada um?Em casos como O2 e O3, dizemos que são diferentes na atomicidade, ou seja, no número de átomos que a molécula possui, mas esse não é o único caso onde ocorre alotropia, o tipo de arranjo entre os átomos, ou seja, sua disposição geométrica, também pode originar alótropos

Alótropos de carbono

Diamante, grafite, fulerenos, negro de fumo etc.


Júlio César de Carvalho

O que o duro diamante, o macio grafite e os exóticos fulerenos e nanotubos apresentam em comum? São todos alótropos do carbono, isto é, substâncias simples diferentes, compostas por um único tipo de elemento. Veja a tabela a seguir:


Fumo Negro: Cn (estrutura aleatória, com predominância de carbono sp2Cn (folhas paralelas de anéis aromáticos unidos)











Grafite: Cn (folhas paralelas de anéis aromáticos unidos)






Diamante: Cn (cristais com carbono sp3)












Fulereno: C60 é o mais comum, mas existem dezenas de outras moléculas, como C20 e C70.












Nanotubos de carbono: Cn, são tubos com estrutura semelhante às folhas de grafite.









Esses alótropos apresentam em comum uma outra coisa: têm uma infinidade de usos, graças às suas propriedades únicas. Vamos detalhar um pouco desses usos e propriedades:


Carbono amorfo é pigmento preto

O carbono amorfo é uma forma semelhante ao grafite, mas com muitos "defeitos", isto é, sem as extensas folhas que aparecem no grafite. Pode ser preparado de várias formas (e com diferentes graus de pureza), desde a captura de fuligem (o negro de fumo) até a carbonização de material vegetal ou animal, que leva a carvões ativados. Seus usos principais são como pigmento preto, em tintas, alimentos e outros materiais como pneus; e como material desodorizante e filtrante para água e gases, em máscaras.


Grafite tem escrita até no nome

O grafite é composto de extensas camadas de átomos de carbono, que formam folhas com anéis unidos - mais ou menos como uma tela. Essas "telas" de carbono deslizam facilmente umas sobre as outras, e ao escrever com um lápis de grafite o rastro deixado é feito dessas camadas, que vão se espalhando quando o lápis é atritado com o papel. O nome desse mineral vem, justamente, do grego "graphos" que significa escrita. Essa mesma propriedade "deslizante" do grafite permite que ele seja usado como lubrificante, especialmente em altas temperaturas - já que o material resiste a mais de 3000oC antes de começar a fundir. Pelo mesmo motivo e também por conduzir eletricidade com razoável facilidade, o grafite pode ser usado como eletrodo para fornos elétricos, onde conduz corrente elétrica suficiente para fundir metais.

Nanotubos de carbono

Diamantes são a substância natural mais dura que se conhece. São densos e transparentes, quando puros, com um alto índice de refração que espalha a luz com mais eficiência que um prisma de vidro (especialmente depois de habilmente lapidado). Devido à sua dureza, são tradicionalmente usados para cortar outros materiais, e mais recentemente têm sido fabricadas finas camadas de diamante para proteger superfícies muito especiais. Ainda por cima, são isolantes elétricos e excelentes condutores de calor. Mas diamantes não são para sempre, já que, sendo de carbono, podem queimar em chamas suficientemente quentes, em presença de O2.

Fulerenos são bolinhas de carbono

Os fulerenos são o único alótropo molecular do carbono, ou seja, não são formas com milhares de átomos aglomerados. São minúsculas bolinhas com números determinados de átomos de carbono. O C60 é o mais comum, mas existem dezenas de outras moléculas, como C20 e C70. Foram descobertos em 1985, quando cientistas investigavam os tipos de macromoléculas de carbono que poderiam se formar em nebulosas no espaço. Hoje se sabe que há traços de fulerenos em fuligens e em alguns minerais. Ainda não há aplicações comerciais, mas muitas aplicações potenciais.

Nanotubos são fruto da pesquisa com fulerenos.

A pesquisa com fulerenos valeu o Nobel aos pesquisadores, em 1996. E animou o ramo dos alótropos de carbono: hoje há milhares de pesquisadores trabalhando com uma outra forma inusitada de carbono, os nanotubos. Imagine que uma daquelas conhecidas "folhas" de grafite é enrolada na forma de um tubo. Ora, um nanotubo é mais ou menos isso, podendo ser de parede simples, dupla ou múltipla, aberto ou fechado. Esses tubos são quase unidimensionais (possuem um comprimento muito, muito superior à largura) e há diversos protótipos de circuitos eletrônicos, dispositivos e materiais contendo nanotubos. Os prognósticos de produtos para a área médica são muito interessantes. Como se pode ver, o carbono, esse elemento tão conhecido da humanidade, ainda reserva muitas surpresas para o futuro.

Geometria molecular

Distribuição espacial dos átomos em uma molécula
Carlos Roberto de Lana

Para entender o conceito básico da geometria molecular, podemos partir de uma analogia bastante simples, com algumas observações do mundo macroscópico. Sempre que tentamos agrupar aleatoriamente objetos materiais sólidos de determinado formato, notamos que há uma relação direta entre o formato do objeto e o formato final do agrupamento.Assim, quando jogamos esferas em uma caixa, por exemplo, elas tendem a deslizar umas sobre as outras e assumir uma configuração final organizada, adequada ao formato da caixa.Se na mesma caixa jogarmos palitos de fósforo, teremos no final um empilhamento caótico, possivelmente uma pirâmide deformada, sem contornos definidos. Com as moléculas acontece coisa semelhante, só que acrescida de um fator que falta às esferas e fósforos do exemplo. Elétrons e zonas de repulsãoQuando dois ou mais átomos se unem para formar uma molécula, suas eletrosferas entram em contato e o formato de seus orbitais (esféricos ou elípticos) influenciará o formato final da ligação. Só que, neste caso, o formato não é o único fator de influência, já que, ao contrário de nossas esferas e fósforos, as eletrosferas são compostas de elétrons, partículas eletricamente carregadas.Como os elétrons têm carga negativa, se repelem entre si. Esta repulsão eletrostática influencia de modo definitivo a geometria molecular, ou seja, o formato do agrupamento de átomos que constitui a molécula. Este fator de influência das cargas elétricas negativas dos elétrons na disposição geométrica da molécula é chamado de zonas de repulsão.Uma zona de repulsão se cria em torno de uma ligação molecular, ou seja, nas vizinhanças dos elétrons compartilhados pelos átomos que formam a molécula.O efeito das zonas de repulsão tende a formar três disposições geométricas básicas em um molécula apolar (aquela na qual os elétrons não se concentram em pólos): a linear, a triangular plana e a tetraédrica, conforme as três figuras a seguir:

Disposição geométrica linear. Os átomos se posicionam em linha.
Disposição geométrica triangular plana. Os átomos formam um triângulo eqüilátero.

Disposição geométrica tetraédrica. Formato de tetraedro (pirâmide triangular).


Para se determinar a disposição geométrica de uma molécula, basta seguir duas regras simples:1) Escrever a fórmula estrutural;2) Identificar o número de ligações atômicas, que é o mesmo número de zonas de repulsão;Se a molécula tiver até duas zonas de repulsão, a geometria será linear. Se tiver três, será triangular plana e se tiver quatro será tetraédrica.Vejamos alguns exemplos:


1) Molécula de Dióxido de Carbono (CO2)

Fórmula estrutural:


Note que o átomo de carbono estabelece duas duplas ligações, uma dupla ligação com cada átomo de hidrogênio. A molécula de CO2 também pode ser representada conforme abaixo:





Se a molécula possui duas duplas ligações, possui também duas zonas de repulsão, que tendem a se afastar uma da outra, fazendo com que a molécula assuma a disposição geométrica linear, conforme a seguinte figura:


Representação esquemática da molécula de dióxido de carbono, que apresenta geometria linear.

2) Molécula de Trifluoreto de Boro (BF3)

Fórmula estrutural:

Como vemos, o átomo de boro forma três ligações simples, uma com cada átomo de flúor. Assim temos três zonas de repulsão e a geometria molecular é triangular plana, conforme a figura:

Representação esquemática da geometria triangular plana do Trifluoreto de Boro (BF3)

3): Molécula de Metano (CH4)

Fórmula estrutural:

O carbono estabelece quatro ligações simples, uma com cada átomo de hidrogênio, logo temos quatro zonas de repulsão e a geometria molecular é tetraédrica, conforme figura abaixo:
Representação esquemática da molécula de Metano, de geometria tetraédrica.

A geometria é uma ferramenta preciosa para entendermos o universo. Ela nos ajuda tanto a descrever a grandeza cósmica das órbitas planetárias quanto nos auxilia na visão do inimaginavelmente pequeno das formas das moléculas.Um excelente lembrete de que as disciplinas do conhecimento podem ser separadas para melhor administração de currículos escolares, mas que todas devem ser integradas na construção individual do conhecimento.

Um Pouquinho da História da Química



Esta era uma era na qual as culturas Sumérias, Babilônica, Egípcias e Gregas estavam florescendo. Durante a maior parte deste período, o misticismo e a superstição prevalesceram sobre o pensamento científico. Nessa era, muitas pessoas acreditavam que os processos naturais eram controlados por espíritos, e que eles poderiam se utilizar de magia para persuadi-los a agir em seu favor. Muito pouco conhecimento químico foi conseguido, mas alguns elementos tais como o Ferro, Ouro e Cobre foram reconhecidos. Durante este tempo, os filósofos gregos Tales e Aristóteles especularam sobre a composição da matéria. Eles acreditavam que a Terra, Ar, Fogo e Água (alguns acreditavam em uma quinta substância conhecida como "quintessência", ou "éter") eram os elementos básicos que compunham toda a matéria. Pelo fim desta era, as pessoas aprenderam que o Ferro poderia ser conseguido a partir de uma rocha marrom escura, e o bronze poderia ser obtido combinando-se cobre e latão. Isso os levou a imaginar que se uma substância amarela pudesse ser combinada com uma mais dura, Ouro poderia resultar. A crença que o ouro poderia ser obtido a partir de outras substâncias iniciou uma nova era conhecida como Alquimia.

Durante esta longa era, muitos alquimistas acreditaram que metais poderiam ser convertidos em ouro com a ajuda de uma "coisa" chamada "a pedra filosofal". Esta "Pedra filosofal" nucna foi encontrada, até onde se sabe, mas muitas descobertas de novos elementos e compostos foram feitas durante este período. No inísio co sédulo XIII, alquimistas como Roger Bacon, Albertus Magnus e Raymond Lully começaram a imaginar que a procura pela pedra filosofal era fútil. Eles acreditaram que os alquimistas poderiam servir o mundo de uma melhor maneira descobrindo novos produtos e métodos para melhorar a vida cotidiana. Isso iniciou uma corrente na qual os alquimistas pararam de buscar pela pedra filosofal. Um importante líder neste movimento foi Theophrastus Bombastus. Bombastus sentiu que o objetivo da alquimia deveria ser a cura dos doentes.
Ele acreditava que sal, enxofre e mercúrio poderiam dar saúde se combinados nas proporções certas. Este foi o primeiro período da Iatroquímica. O último químico influente nesta era foi Robert Boyle. Em seu livro: "O Químico Cético", Boyle rejeitou as teorias científicas vigentes e iniciou uma listagem de elementos que ainda hoje é reconhecida. Ele também formulou uma Lei relacionando o volume e pressão gos gases (A Lei de Boyle). Em 1661, ele fundou uma sociedade cient;ifica que mais tarde tornaria-se conhecida como a Sociedade Real da Inglaterra (Royal Society of England).

Química Tradicional - Da metade do século XVII ao meio do século XIX

A esta altura, os cientistas estavam usando "métodos modernos" de descobertas testando teorias com experimentos. Uma das grandes controvérsias durante este período foi o mistério da combustão. Dois químicos: Johann Joachim Becher e Georg Ernst Stahl propuseram a teoria do flogisto. Esta teoria dizia que uma "essência" (como dureza ou a cor amarela) deveria escapar durante o processo da combustão. Ninguém conseguiu provar a teoria do flogisto. O primeiro químico que provou que o óxigênio é essencial à combustão foi Joseph Priestly. Ambos o oxigênio e o hidrogênio foram descobertos durante este período. Foi o químico francês Antoine Laurent Lavoisier quem formulou a teoria atualmente aceita sobre a combustão. Esta era marcou um período aonde os cientistas usaram o "método moderno" de testar teorias com experimentos. Isso originou uma nova era, conhecida como Química Moderna, à qual muitos se referem como Química atômica.

Química Moderna - Da metade do século XIX até hoje

Esta foi a era na qual a Química floresceu. As teses de Lavoisier deram aos químicos a primeira compreensão sólida sobre a natureza das reações químicas. O trabalho de Lavoisier levou um professor inglês chamado John Dalton a formular a teoria atônica. Pela mesma época, um químico italiano chamado Amedeo Avogadro formulou sua própria teoria (A Lei de Avogadro), concernente a moléculas e suas relações com temperatura e pressão. Pela metade do século XIX, haviam aproximadamente 60 elementos conhecidos. John A. R. Newlands, Stanislao Cannizzaro e A. E. B. de Chancourtois notaram pela primeira vez que todos estes elementos eram similares em estrutura. Seu trabalho levou Dmitri Mendeleev a publicar sua primeira tabela periódica. O trabalho de Mandeleev estabeleceu a fundação da química teórica. Em 1896, Henri Becquerel e os Curies descobriram o fenômeno chamado de radioatividade, o que estabeleceu as fundações para a química nuclear. Em 1919, Ernest Rutherford descobriu que os elementos podem ser transmutados. O trabalho de Rutherford estipulou as bases para a interpretação da estrutura atômica. Pouco depois, outro químico, Niels Bohr, finalizou a teoria atômica. Estes e outroa avanços criaram muitos ramos distintos na química, que incluem, mas não somente: bioquímica, química nuclear, engenharia química e química orgânica.




Curiosidades da Física

O Sol

A luz do nosso astro-rei demora 8 min e 15 s para chegar até nós.

A distância entre o Sol e a Terra é de 148,45 milhões de quilômetros.

Sua massa é 334,672 vezes maior que massa da Terra, e ele é 109 vezes maior que ela.

Na sua superfície a temperatura chega a 5500 Cº.

Calcula-se que no seu centro a temperatura chega a 15 milhões Cº.

Ele sempre nasce do lado leste.

A Terra

A massa do planeta é 5,9 sextilhões de toneladas! A população é de 5,2 milhões de habitantes.

A Terra é o único planeta que possui água no estado líquido e uma combinação de fatores (oceanos, atmosfera, etc..) que levam ao desenvolvimento de formas de vida.

Distância média da Terra à Lua: 382.166 km.

A Lua

A lua é um satélite natural da Terra e é o astro mais próximo dela.

Ela não tem brilho próprio.

A luz que vemos é a do Sol refletida nela, luz que demora 1,25 segundos para chegar até a Terra.

Lei da Gravitação Universal

Lei da Gravitação Universal

(Isaac Newton - sec XVII)

Mais tarde, Newton, apoiado nas idéias de Kepler, observou que os planetas deviam estar sujeitos a uma força centrípeta, pois não sendo assim, suas trajetórias não seriam curvas (fig. 7.5).
Logo Newton concluiu que essa força era devida à atração do Sol sobre os planetas, deduzindo as Leis de Kepler, que antes disso eram baseadas apenas em observações.
A Lei da Gravitação Universal é uma expressão matemática baseada na força de atração do Sol nos planetas cujo enunciado é:
"Dois corpos quaisquer se atraem com uma força proporcional ao produto de suas massas e inversamente proporcional ao quadrado da distância entre eles."
Expressão:

F = (Gm1m2)/d²

Onde:
F: força de atração
G: constante de gravitação universal
m1 e m2: massas dos corpos estudados
d: distância entre os corpos

Esta lei estabelece duas relações importantes:

Quanto maior a distância entre dois corpos, menor a força de atração, e vice-versa.
Quanto maior as massas dos corpos, maior a força de atração, e vice-versa.
Da fig. 5 temos que a força F1 de atração que o Sol exerce sobre o planeta é maior que F2 porque a distância que o planeta está do Sol na posição 1 é menor que a distância na posição 2.



Figura 7.5- A força de atração F1é maior do que a força F2 (Lei da Gravitação Universal - Newton).

As Leis de Kepler

Leis de Kepler

1ª Lei de Kepler: Qualquer planeta gira em torno do Sol, descrevendo uma forma elíptica da qual o Sol ocupa um dos focos (fig. 7.3).
Figura 7.3 - 1ª Lei de Kepler - O Sol ocupa um dos focos da elipse e a órbita do planeta é elíptica.

2ª Lei de Kepler: A reta que une um planeta ao Sol "varre" áreas iguais em tempos iguais (fig. 7.4).

Figura 7.4 - 2ª Lei de Kepler - As áreas A1 e A2 são iguais.

Nestes desenhos exageramos a excentricidade das elipses para facilitar a compreensão.


Da fig. 7.4 você pode observar que:

As áreas A1 e A2 são iguais considerando que os tempos para o planeta ir de A a B e de C a D são iguais. O planeta se move com maior velocidade perto do Sol (arco AB) do que quando está mais afastado do Sol (arco CD). Isto acontece porque o planeta, estando mais próximo do Sol, sofre uma força de atração maior (comprovado mais tarde por Newton).
Observação: A 2a Lei de Kepler é válida para qualquer movimento em que haja atuação de forças dirigidas para um único ponto. Assim, no movimento circular, por exemplo, vale a 2a Lei de Kepler.

3ª Lei de Kepler: Os quadrados dos períodos de revolução dos planetas são proporcionais aos cubos dos raios de suas órbitas.
Expressão:
T² / R³ = K (constante)

Onde:

T: período de revolução do planeta
R: raio da órbita do planeta
A terceira lei de Kepler nos diz que quanto mais afastado estiver o planeta do Sol, maior o tempo que leva para dar uma volta completa (maior o período), e vice-versa. Só para você ter uma idéia: "A Terra leva um ano para dar uma volta ao redor do Sol e o raio de sua órbita é igual á 1,000 u.a. (uma unidade astronômica), enquanto Plutão, que é o planeta mais afastado do Sol, leva 248 anos para dar uma volta completa e o raio da sua órbita é igual à 39,4 u.a."

Física Gravitacional

Um pouco de história

Quem já não ficou olhando para o céu tentando desvendar o misterioso mundo dos astros?
Muitos fenômenos celestes exerciam uma forte influência nos povos mais antigos e até hoje exercem um fascínio sobre a gente. Isso levou muitos astrônomos da Antigüidade a coletar inúmeros dados sobre o movimento dos astros, já que podia-se observar que muitos deles se moviam entre os demais. Existem vários modelos que podemos citar sobre o movimento dos astros, tais como o Sistema de Ptolomeu (século II d.C.) e o modelo dos gregos (Aristóteles - século IV a.C.), que julgavam que os corpos celestes giravam em torno da Terra (Sistema Geocêntrico - Fig. 7.1).
O que mais nos interessa agora é o modelo de Copérnico (XVI). Nesse modelo denominado heliocêntrico, o Sol estaria em repouso e a Terra e os demais planetas girariam em torno dele em órbitas circulares. Anos depois foi provado por Kepler que estas órbitas eram elípticas. A fig. 7.2 mostra o Sistema Heliocêntrico nos dias de hoje com todos os planetas do sistema Solar.
No século XVII era uma heresia religiosa sugerir que os planetas giravam ao redor do Sol e não da Terra. Em 1600, Giordano Bruno, um defensor do sistema heliocêntrico de Copérnico e um religioso herético em geral, foi julgado pela Inquisição e queimado na fogueira.
Mesmo o grande Galileu, que era amigo do Papa, foi preso, julgado pela Inquisição, e obrigado a renunciar publicamente suas crenças. Anos após a morte de Copérnico, Tycho Brahe, um astrônomo dinamarquês, com um observatório muito bem equipado, observou por cerca de 20 anos o movimento dos planetas. Esses dados foram tabelados e foram a base do trabalho de Kepler (XVII), que era seu discípulo. Após a morte de Tycho Brahe, Kepler estudou os dados deixados por seu mestre durante 17 anos concebendo 3 leis sobre o movimento dos planetas, dando origem à Mecânica Celeste.











Awe galera ta um video de Física Mecânica para tirar aquelas duvidas e aprender a mecânica da coisa de voçes esperamos que gostem abraços ate mais