Ich habe folgendes Szenario:
Ich möchte eine Anwendung, die:
Danke!
Ich mache etwas Ähnliches, aber umgekehrt (große Mengen an Informationen von mehreren verschiedenen Unternehmen in ein Enterprise Data Warehouse aufnehmen).
Für diesen Job würde ich empfehlen, dass Sie sich ein ETL-Tool ansehen. Wenn Sie PostgreSQL verwenden, empfehle ich Ihnen, sich entweder Pentaho Data Integration (PDI) oder Talend anzusehen . Ich habe mich für PDI entschieden, wo ich arbeite, und ich könnte nicht glücklicher sein.
So wie es funktioniert, bauen Sie Ihre Jobs (die mehrere Transformationen ausführen, die Datenübertragung zu Dingen wie FTP/SFTP, E-Mail, Syslog-Einträge usw. handhaben) und Ihre Transformationen (die Bits, die die Datenextrakte durchführen) aus. Sie können sie in einem Dateisystem oder in meinem Fall in einer Datenbank speichern, sodass von mehreren Computern darauf zugegriffen werden kann.
Sie können die auszuführenden Jobs mit einem einfachen Cron-Job von jedem Computer aus planen, auf dem Java ausgeführt werden kann (ich verwende OpenJDK mit Ubuntu 14.04 und es funktioniert hervorragend). Ein netter Nebeneffekt davon, wenn Sie in der Produktion arbeiten, ist, dass Ihre DB- und ETL-Server getrennt sind. Wenn ETL aus irgendeinem Grund ausfällt, wird Ihre DB nicht mitgenommen.
0 6 * * * cd /opt/data-integration && ./kitchen.sh -rep=REPO_NAME -user=USER_NAME -pass=PASSWORD -dir=/FOLDER_ON_DB_REPOSITORY -job=JOB_NAME
Izzy
Alejandro
Luft
Luft
Izzy
Luft
Izzy