kopal Library of Retrieval and Ingest issueshttps://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues2023-02-21T14:36:14Zhttps://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues/225Check publication process with “already-in-progress“ status2023-02-21T14:36:14ZStefan E. Funkfunk@sub.uni-goettingen.deCheck publication process with “already-in-progress“ statusTesten, was passiert, wenn ein zweiter Publikationsprozess für dieselbe Kollektion nochmals angestoßen wird (geht das im Publikator überhaupt? Was passiert über die API?), wenn die erste Publikation noch läuft. Es darf hier
- nicht zu e...Testen, was passiert, wenn ein zweiter Publikationsprozess für dieselbe Kollektion nochmals angestoßen wird (geht das im Publikator überhaupt? Was passiert über die API?), wenn die erste Publikation noch läuft. Es darf hier
- nicht zu einem Abbruch des Publikationsprozesses kommen (!) und
- die Fehlermeldung (Status) sollte transparent zur Nutzerin transportiert werden.https://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues/213Get PID-Service client while publish is running, not at Service start2022-10-11T09:42:59ZStefan E. Funkfunk@sub.uni-goettingen.deGet PID-Service client while publish is running, not at Service startAnsonsten muss Publish neu gestartet werden, wenn der PID-Service mal down war bei Publish-StartAnsonsten muss Publish neu gestartet werden, wenn der PID-Service mal down war bei Publish-Starthttps://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues/199Put Tika extracted mimetype into ADMMD dcterms:format (I suppose) [was #35617]2021-11-30T12:04:14Zdh-import-importPut Tika extracted mimetype into ADMMD dcterms:format (I suppose) [was #35617]We would so be independent from proprietary mimetypes like “application/vnd.openxmlformats-officedocument.wordprocessingml.document“, as given ba some operating systems for doc/rtf/word files.We would so be independent from proprietary mimetypes like “application/vnd.openxmlformats-officedocument.wordprocessingml.document“, as given ba some operating systems for doc/rtf/word files.https://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues/195logging wrong on data queue param… [was #34362]2021-11-30T12:04:14Zdh-import-importlogging wrong on data queue param… [was #34362]de.langzeitarchivierung.kolibri.processstarter.dariahde.publish.DHPublish.run() [2020-12-10T14:09:55.360+01:00] [INFO] DH-publish#PUBLISH started [9.4.7-DH-SNAPSHOT+202012071337] [INFO] Checking #PUBLISH data queue every less than a mill...de.langzeitarchivierung.kolibri.processstarter.dariahde.publish.DHPublish.run() [2020-12-10T14:09:55.360+01:00] [INFO] DH-publish#PUBLISH started [9.4.7-DH-SNAPSHOT+202012071337] [INFO] Checking #PUBLISH data queue every less than a millisecondhttps://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues/188DH-publish service rubustness for API calls [was #26615]2021-11-30T12:04:13Zdh-import-importDH-publish service rubustness for API calls [was #26615]For now only Publikator can send RDF files to DH-publish. If everyone can, we must secure robustness of DH-publish service to cope with false RDF files.For now only Publikator can send RDF files to DH-publish. If everyone can, we must secure robustness of DH-publish service to cope with false RDF files.https://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues/185Publish status toggles from error to draft [was #23009]2021-11-30T12:04:13Zdh-import-importPublish status toggles from error to draft [was #23009]create a new collection in publikator, update one file now publish collection (don't add any metadata fields) I will fail because of missing metadata. Try to publish this collection 6-10 times suddenly Publish reports as status ``` {"sta...create a new collection in publikator, update one file now publish collection (don't add any metadata fields) I will fail because of missing metadata. Try to publish this collection 6-10 times suddenly Publish reports as status ``` {"status":"ERROR","uri":"https://de.dariah.eu/storage/EAEA0-974C-2022-F73D-0","module":"de.langzeitarchivierung.kolibri.actionmodule.dariahde.publish.ReadCollectionModels","progress":16} {"status":"DRAFT","uri":"https://de.dariah.eu/storage/EAEA0-974C-2022-F73D-0","module":"de.langzeitarchivierung.kolibri.actionmodule.dariahde.publish.ReadCollectionModels","progress":16} ``` The calls follow a few milliseconds. I am exceptiing that it stays on error.https://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues/182Check if a collection already has been created in case of an error while publ...2021-11-30T12:04:13Zdh-import-importCheck if a collection already has been created in case of an error while publishing [was #13688]https://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues/181Nachnutzen von Infos von fehlerhaften Publikationsvorgängen [was #22702]2021-11-30T12:04:13Zdh-import-importNachnutzen von Infos von fehlerhaften Publikationsvorgängen [was #22702]Wurden z. B. schon PIDs und/oder DOIs erstellt, und es gab einen Fehler NACH der Erstellung, sollen diese beim nächsten Lauf von Publish nachgenutzt werden. Hierzu könnten diese Informationen in einer Datei im OwnStorage gespeichert werden.Wurden z. B. schon PIDs und/oder DOIs erstellt, und es gab einen Fehler NACH der Erstellung, sollen diese beim nächsten Lauf von Publish nachgenutzt werden. Hierzu könnten diese Informationen in einer Datei im OwnStorage gespeichert werden.https://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues/175Für Publish-Progress: Größe der Dateien berücksichtigen [was #22489]2021-11-30T12:04:13Zdh-import-importFür Publish-Progress: Größe der Dateien berücksichtigen [was #22489]3*700MB Dateien stehen laaange bei 76%, es müsste ein Fortschritt erhöht und in die PublishResponse geschrieben werden, während des DH-crud-/Upload-Call…3*700MB Dateien stehen laaange bei 76%, es müsste ein Fortschritt erhöht und in die PublishResponse geschrieben werden, während des DH-crud-/Upload-Call…https://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues/168Tokens für DH-publish [was #21544]2021-11-30T12:04:13Zdh-import-importTokens für DH-publish [was #21544]Tokens shall be used for the import API. We take the token from the Publikator and make it revealable from there! We test then in DH-publish if stopring of data will succeed. If yes, user is allowed to publish, if not, not.Tokens shall be used for the import API. We take the token from the Publikator and make it revealable from there! We test then in DH-publish if stopring of data will succeed. If yes, user is allowed to publish, if not, not.https://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues/166Wenn Publizieren hängt, fehlt ein Cancel button! [was #18743]2021-11-30T12:04:13Zdh-import-importWenn Publizieren hängt, fehlt ein Cancel button! [was #18743]https://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues/152Documentation of DH-publish API [was #26614]2021-11-30T11:57:23Zdh-import-importDocumentation of DH-publish API [was #26614]We need to know:
- how API calls are working
- how the RDF file has to be structured
- mandatory metadata
- add examples
- ...We need to know:
- how API calls are working
- how the RDF file has to be structured
- mandatory metadata
- add examples
- ...https://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues/151Implement Publish API [was #26613]2021-11-30T11:55:39Zdh-import-importImplement Publish API [was #26613]https://gitlab.gwdg.de/dariah-de/kopal-library-of-retrieval-and-ingest/-/issues/150Import-API testen mit Daten des Kenom Projekts [was #26618]2022-09-16T11:03:32Zdh-import-importImport-API testen mit Daten des Kenom Projekts [was #26618]Aussuchen einer Kollektion mit recht vielen Objekten, mit denen wir dann die Publish API testen.Aussuchen einer Kollektion mit recht vielen Objekten, mit denen wir dann die Publish API testen.