Obwohl Deutschland als vereinigter Staat erst seit dem 19. Jahrhundert existiert, haben die als deutsch bezeichneten Völker eine lange und bedeutende Tradition in der bildenden Kunst. Die Renaissance, die durch ein erneutes Interesse an der antiken griechisch-römischen Kultur gekennzeichnet war, entstand im 14. Jahrhundert in Italien und breitete sich im folgenden Jahrhundert auch in Deutschland […]