We would so be independent from proprietary mimetypes like “application/vnd.openxmlformats-officedocument.wordprocessingml.document“, as given ba some operating systems for doc/rtf/word files.
de.langzeitarchivierung.kolibri.actionmodule.dariahde.publish.CheckCollections [INFO] https://de.dariah.eu/storage/EAEA0-02C6-A964-AC09-0 --> Checking storage access and availability [SEVERE] https://de.dariah.eu/storage/EAEA0-02C6-A964-AC09-0 --> Read access denied from OwnStorage for https://de.dariah.eu/storage/EAEA0-99D4-BBAC-D52E-0! (16%) … [SEVERE] https://de.dariah.eu/storage/EAEA0-02C6-A964-AC09-0 --> Finished with Error (24%) ...maybe token is not valid anymore? check errror handling here!
de.langzeitarchivierung.kolibri.actionmodule.dariahde.publish.CheckCollections [INFO] https://de.dariah.eu/storage/EAEA0-02C6-A964-AC09-0 --> Checking storage access and availability [SEVERE] https://de.dariah.eu/storage/EAEA0-02C6-A964-AC09-0 --> Read access denied from OwnStorage for https://de.dariah.eu/storage/EAEA0-99D4-BBAC-D52E-0! (16%) … [SEVERE] https://de.dariah.eu/storage/EAEA0-02C6-A964-AC09-0 --> Finished with Error (24%) ...maybe token is not valid anymore? check errror handling here!
we got a java.lang.IndexOutOfBoundsException: Index: 0, Size: 0 in dhpublish at [INFO] … DHPublishService#publish sucessfully started [INFO] … DH-publish started, data added to data queue 08-Apr-2021 19:10:26.069 WARNING [http-nio-9094-exec-2] org.apache.cxf.phase.PhaseInterceptorChain.doDefaultLogging Application {http://publish.dariahde.webservice.kolibri.langzeitarchivierung.de/ }DHPublishServiceImpl has thrown exception, unwinding now … … Caused by: java.lang.IndexOutOfBoundsException: Index: 0, Size: 0 at java.util.ArrayList.rangeCheck(ArrayList.java:659) at java.util.ArrayList.get(ArrayList.java:435) at de.langzeitarchivierung.kolibri.webservice.dariahde.publish.DHPublishServiceImpl.gatherInformation(DHPublishServiceImpl.java:809) at de.langzeitarchivierung.kolibri.webservice.dariahde.publish.DHPublishServiceImpl.getInfo(DHPublishServiceImpl.java:449) at sun.reflect.GeneratedMethodAccessor45.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.cxf.service.invoker.AbstractInvoker.performInvocation(AbstractInvoker.java:179) at org.apache.cxf.service.invoker.AbstractInvoker.invoke(AbstractInvoker.java:96) ... 37 more can we reproduce that issue somehow?
we got a java.lang.IndexOutOfBoundsException: Index: 0, Size: 0 in dhpublish at [INFO] … DHPublishService#publish sucessfully started [INFO] … DH-publish started, data added to data queue 08-Apr-2021 19:10:26.069 WARNING [http-nio-9094-exec-2] org.apache.cxf.phase.PhaseInterceptorChain.doDefaultLogging Application {http://publish.dariahde.webservice.kolibri.langzeitarchivierung.de/ }DHPublishServiceImpl has thrown exception, unwinding now … … Caused by: java.lang.IndexOutOfBoundsException: Index: 0, Size: 0 at java.util.ArrayList.rangeCheck(ArrayList.java:659) at java.util.ArrayList.get(ArrayList.java:435) at de.langzeitarchivierung.kolibri.webservice.dariahde.publish.DHPublishServiceImpl.gatherInformation(DHPublishServiceImpl.java:809) at de.langzeitarchivierung.kolibri.webservice.dariahde.publish.DHPublishServiceImpl.getInfo(DHPublishServiceImpl.java:449) at sun.reflect.GeneratedMethodAccessor45.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.cxf.service.invoker.AbstractInvoker.performInvocation(AbstractInvoker.java:179) at org.apache.cxf.service.invoker.AbstractInvoker.invoke(AbstractInvoker.java:96) ... 37 more can we reproduce that issue somehow?
Die Veröffentlichung von Datasets von Discuss Data nach Dhrep scheitert aktuell öfter (=nicht immer) daran, dass der Publishing Vorgang nicht termininiert, sondern mit dem Status "Running" dauerhaft weiter rennt. Folgende Statusmeldungen werden dabei als json von Dhrep immer wieder zurück geliefert: ERROR 2021-03-09 13:42:40,236 publisher 90 140259138104136 status-text: {"dryRun":false,"objectListComplete":false,"publishStatus":{"progress":8,"processStatus":"RUNNING","activeModule":"de.langzeitarchivierung.kolibri.actionmodule.dariahde.publish.ReadCollectionModels#[EAEA0-01A4-27E8-7722-0#419ceacb-a88c-446f-a2cd-32ac6c0966be] Assembling overall RDF model from collection files"},"publishObjects":[{"uri":"https://de.dariah.eu/storage/EAEA0-01A4-27E8-7722-0","status":"OK"}]} ERROR 2021-03-09 13:42:40,243 publisher 90 140259138104136 status-status: 200
Die Veröffentlichung von Datasets von Discuss Data nach Dhrep scheitert aktuell öfter (=nicht immer) daran, dass der Publishing Vorgang nicht termininiert, sondern mit dem Status "Running" dauerhaft weiter rennt. Folgende Statusmeldungen werden dabei als json von Dhrep immer wieder zurück geliefert: ERROR 2021-03-09 13:42:40,236 publisher 90 140259138104136 status-text: {"dryRun":false,"objectListComplete":false,"publishStatus":{"progress":8,"processStatus":"RUNNING","activeModule":"de.langzeitarchivierung.kolibri.actionmodule.dariahde.publish.ReadCollectionModels#[EAEA0-01A4-27E8-7722-0#419ceacb-a88c-446f-a2cd-32ac6c0966be] Assembling overall RDF model from collection files"},"publishObjects":[{"uri":"https://de.dariah.eu/storage/EAEA0-01A4-27E8-7722-0","status":"OK"}]} ERROR 2021-03-09 13:42:40,243 publisher 90 140259138104136 status-status: 200
de.langzeitarchivierung.kolibri.processstarter.dariahde.publish.DHPublish.run() [2020-12-10T14:09:55.360+01:00] [INFO] DH-publish#PUBLISH started [9.4.7-DH-SNAPSHOT+202012071337] [INFO] Checking #PUBLISH data queue every less than a millisecond
we have got a few publications, that were published with the same process name or URL and only millliseconds apart. please check concurrent publish processes!
we have got a few publications, that were published with the same process name or URL and only millliseconds apart. please check concurrent publish processes!
dhpublish gibt unter '/status', wenn es mit dem header "Accept": "application/json" angefragt wird, ein json-objekt zurück, das das element 'processStatus' enthält. zeitlich zwischen dem status "NOT_QUEUED" und "FINISHED" kann es sein, dass dieses element fehlt; meine vermutung im zustand "QUEUED".
dhpublish gibt unter '/status', wenn es mit dem header "Accept": "application/json" angefragt wird, ein json-objekt zurück, das das element 'processStatus' enthält. zeitlich zwischen dem status "NOT_QUEUED" und "FINISHED" kann es sein, dass dieses element fehlt; meine vermutung im zustand "QUEUED".
wenn ein token schon etwas älter ist (wahrscheinlich 16 oder 20 stunden) antwortet dhpublish: ERROR ACCESSING THE STORAGE SERVICE!: Your storage token is about to expire in 3 hours 21 minutes! Please consider getting a fresh one! - 400 der token ist aber noch gültig und sollte akzeptiert werden