Die Beziehungen zwischen Deutschland und den Vereinigten Staaten haben sich seit dem 17. Jahrhundert durch Auswanderung von Deutschen in die „Neue Welt“ entwickelt. Sie betreffen eine Vielzahl von Kontakten im kulturellen, wirtschaftlichen, wissenschaftlichen, politischen und militärischen Bereich.
de