Com a mudança do nosso horário de verão para o horário tradicional acabei esbarrando num problema em relação ao Openfire , mais especificamente com o cliente de mensagens instantâneas que utilizamos aqui. O famoso Spark . O que ocorreu é que, mesmo ajustando o horário no Servidor Linux onde está o Openfire e também o servidor de banco de dados, o Spark continuou exibindo a data adiantada em 1 hora. Para resolver segui a dica deste post: http://listas.softwarelivre.org/pipermail/openfire-br/2009-October/004156.html para o mesmo problema só que no início do horário de verão. Em resumo o que fiz foi remover ou renomear a pasta jre de dentro da instalação do Spark e deixar ele pegar o meu java instalado localmente. Resolvi fazer desta forma, pois esta instalação padrão do java eu atualizo frequentemente (via apt-get). Com isso evito de ter este problema na próxima troca de horário. Outra possibilidade seria copiar a instalação do Java Runtime de sua m...
Vou mostrar abaixo uma tarefa bastante simples utilizando o Pentaho Data Integration, para fins de aprendizado de 2 componentes interessantes, o "table input" (que utilizo em praticamente todos os projetos) e o "Execute Sql Script" (usado eventualmente). O que esta transformação vai fazer será excluir todas as tabelas de determinado esquema de usuário no banco de dados Oracle. Este mesmo script poderia ser utilizado também para exclusão de qualquer objeto, mas fica para um segundo post. No primeiro componente "table input" configurei da seguinte forma: Nome do Step: Tabelas a Excluir Conexão: SPED (o nome da conexão que criei previamente); SQL: Aqui fiz um select na tabela "user_tables" do dicionário do Oracle, que me retorna o nome de todas as tabelas (exceto temporárias). No segundo compontente "Execute Sql Script" configurei assim: Nome do Step: Apaga Tabelas Conexão: A mesma informada no step anterior: SPED SQL: Aqui col...
Quando baixamos o Pentaho Data Integration (Kettle) do site da Comunidade, este vem predefinido com um valor modesto de utilização de memória. Isso ocorre para que seja o mais portável possível em diferentes equipamentos. Mas para que possamos tirar o máximo de proveito do mesmo, podemos customizar o valor de alocação de memória, para melhor se adequar à realidade do nosso projeto. Para isso basta que ajustemos este valor de memória em 4 arquivos de execução do Pentaho Data Integration: pan.sh (pan.bat no Windows) Este arquivo pode ser utilizado para rodar em background transformações que tenham sido previamente criadas através do modo gráfico (spoon) do PDI. kitchen.sh (kitchen.bat no Windows) Este arquivo pode ser utilizado para rodar em background Jobs previamente criados também através do modo gráfico (spoon) do PDI. spoon.sh (spoon.bat no Windows) Este é o arquivo (script batch de execução) do PDI em modo gráfico, que nos permite desenhar as transformações ...
Comentários