Imperialismus

Der Begriff des Imperialismus bezeichnet die Bestrebung eines Landes oder Herrschenden, seine territorialen, ökonomischen, militärischen oder kulturellen Macht auszuweiten bzw. sein Einflussgebiet zu erweitern. Im unmittelbaren Umfeld hierzu steht der Begriff der Kolonialisierung als Sinnbild für den Versuch, weitere Gebiete einzunehmen, welche einerseits als erweitertes Einflussgebiet, andererseits als Ressourcenquelle für das imperialistische Quellland genutzt werden.

Ein Kernaspekt des Imperialismus ist die Erschaffung ungleicher Wirtschafts- und Machtverhältnisse, welches eine Abhängigkeit zwischen dem einzugliedernden Land und dem erweiterungsbestrebten Land erzeugt.

Zum Begriff des Imperialismus

Der Begriff Imperialismus kann auf das lateinische Verb „imperare“ zurückgeführt werden, dessen Übersetzung dem deutschen Verb „herrschen“ oder „Einfluss nehmen“ entspricht. Ferner kann zur Begriffsherleitung das lateinische Substantiv „Imperium“ herangezogen werden, welches in seiner Übersetzung das „Weltreich“ bezeichnet.

Das 19. Jahrhundert ist die Entstehung des Imperialismus

Sein Aufkommen erfährt der Begriff des Imperialismus vor allem gegen Ende des 19. Jahrhunderts in Europa. In diesem Zeitraum sind zahlreiche europäische Industriestaaten, darunter Frankreich, Deutschland und England, darum bemüht, Kolonien zum Zwecke der Ressourcenversorgung und als Machtzuwachs zu erwerben. Auch der Aspekt der Markterweiterung und die hiermit einhergehende Beförderung von Abhängigkeitsverhältnissen ist dem Begriff des Imperialismus zuzuordnen. Ferner gilt der Aspekt der kulturellen Einflussnahme als ausschlaggebende Ambition zur Kolonialisierung.

Der Kolonialismus geht einher mit dem Imperialismus

Diese Absicht erfuhr, vor allem im Rahmen des europäischen Kolonialismus, den euphemistischen Schutzmantel der Kultivierung und Zivilisierung eindeutig unzivilisierter Völker. Hieraus ist unmittelbar der Versuch zu erkennen, den Imperialismus ideologisch und ethisch zu rechtfertigen. So sprach sich beispielsweise der deutsche Philosoph Georg Wilhelm Friedrich Hegel, seines Zeichens einer der bedeutendsten Persönlichkeiten der deutschen Geistesgeschichte, dafür aus, Imperialismus zu betreiben.

Imperiale Bestrebungen als globale Erscheinung

Europäischer Imperialismus hat zu einem Wettlauf auf dem afrikanischen Kontinent geführt

Europäischer Imperialismus hat zu einem Wettlauf auf dem afrikanischen Kontinent geführt

Der Begriff des Imperialismus ist jedoch kein ausschließlich europäisches Phänomen: Auch die USA und Japan verfolgten gegen Ende des 19. Jahrhunderts eine Politik, die stark von Interessen der Machterweiterung und Ressourcengewinnung geprägt war.

Im Gegensatz zu den europäischen Kolonialinteressen, die ihres Zeichens vor allem auf den afrikanischen Kontinent konzentriert waren, stand im Rahmen des amerikanischen Imperialismus vor allem der asiatische und pazifische Raum im Fokus der kolonialen Bestrebungen. Das gleiche Einflussgebiet ist auch der japanischen Erweiterungspolitik zuzurechnen. Auch heute gibt es noch oder schon wieder imperialistische Strömungen. Diese werden im Neo-Imperialismus zusammengefasst.

Der Imperialismus in Deutschland

Der Begriff Imperialismus kam im 16. Jahrhundert auf und besaß schon damals eine negative Prägung. Der Imperialismus stand für Militärherrschaft und Despotentum. Aber erst im 19. Jahrhundert wurde der Begriff auf bestimmte Staaten und deren Wirken angewendet, darunter auch Deutschland.

Das deutsche Imperium

Der Imperialismus in Deutschland bezieht sich auf eine bestimmte zeitliche Periode, in der Deutschland offiziell als Deutsches Reich bezeichnet wurde. Das 1871 gegründete deutsche Reich sollte diesen Namen bis zum Ende des Zweiten Weltkrieges im Jahr 1945 behalten. Als die imperiale Phase wird der Zeitraum von 1890, beginnend mit der Abdankung Bismarcks unter Kaiser Wilhelm II, bis zum Ende des Ersten Weltkrieges im Jahr 1918 gesehen.

Ein wesentliches Merkmal des Imperialismus ist die Ausdehnung des Herrschaftsanspruchs auf andere Länder, wobei das imperial agierende Land beziehungsweise deren Machthaber ihre Dominanz in Bezug auf die Wirtschaft, Gesellschaft und Politik verdeutlichen. Eine gleichberechtigte Partnerschaft ist nicht beabsichtigt.

Politik und Krieg im deutschen Imperialismus

Das damalige Deutschland beziehungsweise das Deutsche Reich unter Kaiser Wilhelm II versuchte mehrere Male, seinen Einfluss bei Entscheidungen Frankreichs oder Englands geltend zu machen, um deren Herrschaftsbestreben einzuschränken. In dieser Zeit entstanden die ersten und auch einzigen Kolonien Deutschlands, die letztlich auch die einzige wirkliche Herrschaftsausdehnung bedeuteten. Allerdings waren die deutschen Kolonien Deutsch-Südwestafrika, Deutsch-Ostafrika, Kamerun, Togo sowie Deutsch-Neuginea kein wirtschaftlich erfolgreicher Zugewinn. Immerhin aber konnte der damals amtierende Reichskanzler Bernhard von Bülow den von Ihm in der Welt beanspruchten „Platz an der Sonne“ für das Deutsche Reich realisieren.

Deutschland isolierte sich immer mehr

Die Einflussnahme Deutschlands auf ihre Verbündeten und die ausgeübte Weltpolitik sorgten für eine immer stärkere Isolation des Landes. Da das Deutsche Reich auf politischer Ebene seinen imperialen Gedanken nur in geringem Umfang verwirklichen konnte, ist anzunehmen, das der Krieg Österreichs gegen Serbien, als Folge des Attentats auf den österreichischen Thronfolger durch serbische Attentäter, eine willkommene Möglichkeit bot, auf militärische Weise den deutschen Imperialismus auszudehnen. Zumal Österreich den Krieg gegen Serbien erst begann, als Deutschland zustimmte. Dieser eigentlich lokale Krieg weitete sich dann auch erstaunlich schnell zum Ersten Weltkrieg aus mit den bekannten Folgen.

Durch den Versailler Friedenvertrag verlor Deutschland alle Kolonien

Vier Jahre später wurden im Versailler Friedensvertrag von 1918 Deutschland alle seine Kolonien aberkannt und interessierten Siegermächten zur Verfügung gestellt. Die Abdankung Kaiser Wilhelms II und seine folgende Flucht ins niederländische Exil beendeten den deutschen Imperialismus endgültig. Doch die dem Kaiserreich folgende Weimarer Republik brachte der Bevölkerung selbst auch kein Glück und endete im Naziregime, das gleichermaßen nach der Weltherrschaft strebte.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *