Für euch vor Ort

Netzwerken ist unsere Stärke - Analog und digital

Den profi.com-Nachwuchs suchen wir dort, wo er sich gerade befindet - dafür reisen wir durch verschiedene Bundesländer.

Wir suchen die Besten! Doch wo finden wir die? Neben dem traditionellen Recruiting vor Ort auf Hochschulen schauen wir ebenso aufmerksam auf die digitalen Kanäle. Ob ITsax, Faire Karriere oder unsere eigenen Social Media-Aktivitäten: wenn es darum geht, die tollsten Hechte aus dem Teich zu ziehen, setzen wir auf unsere Präsenz in einem starken Netz(werk). Darüber hinaus sind wir im ständigen Kontakt mit verschiedenen Hochschulen und Fachnetzwerken. In Workshops und verschiedenen Events geben wir Interessierten Einblicke in unsere tägliche Arbeit und geben unser Fachwissen an den Nachwuchs weiter.

Hochschulmessen

Wir suchen Nachwuchs! Das tut so ziemlich jedes IT Unternehmen in Deutschland. Aber wie? Wir holen unsere neuen profi.com'ler da ab, wo sie sich gerade befinden. Und somit gehen wir direkt zur Hochschule, um uns als attraktiven Arbeitgeber zu präsentieren. An unserem Messestand erzählen wir Dir persönlich, warum wir gerne bei der profi.com arbeiten, was Dich bei uns erwartet und welche fachlichen Themen Du bei uns vertiefen kannst. Die Einstiegsmöglichkeiten reichen von einem Praktikum oder einer Werkstudententätigkeit über unser Traineeprogramm, bis hin zum Direkteinstieg. Auch die Betreuung von Abschlussarbeiten haben wir schon übernommen.

Kommt vorbei, wir freuen uns auf spannende Gespräche mit euch!

Software Testing profi.com Cup 2017

In Zusammenarbeit mit dem Career Service der TU Dresden sowie dem ESF-Projekt „Orientierungsplattform Forschung & Praxis“ veranstalteten wir zuletzt am 17. Mai 2017 für Studierende des 1.-4. Fachsemesters der Informatik/Medieninformatik  einen spannenden Tag rund um das Thema Software Testing. 

Die Teilnehmer erfuhren aus erster Hand, wie die Mitarbeiter der profi.com Apps oder Webseiten professionell auf Herz und Nieren prüfen. Anschließend bekamen sie selbst eine konkrete Anwendung, die in Teams getestet und mit einem Testbericht beendet werden musste. Zwischendurch gab es spannende und praxisnahe Einblicke unserer Consultants in die Welt der profi.com-Projekte. Die Ergebnisse der einzelnen Teams wurden anschließend nach Anzahl und Kritikalität der gefundenen Bugs bewertet. Der Tag endete dann entspannt bei einem gemeinsamen Grillabend und einem kühlen Bier.

Wir blicken gern auf diesen ereignisreichen Tag zurück und freuen uns auf eine Wiederholung.

Trainee Karriere

Die Pipeline steht - vom Code in die Cloud

Unsere Trainees designten einen umfassenden Test- und Bereitstellungsprozess, in dem Changes, Builds, Tests und Deployment in einer automatisierten Pipeline miteinander verbunden werden.

In den letzten 6 Wochen beschäftigten wir uns in einem Praxisprojekt mit dem Erstellen und Vorstellen einer Continuous Deployment Pipeline.  Im Zentrum des Projekts stand eine sich in der laufenden Entwicklung befindende Web-Anwendung. Exemplarisch wurde für das Projekt die "Petclinic" betrachtet.

Für jeden neuen commit der Entwickler - also dem Einspielen von neuem oder geändertem Quelltext - wird schrittweise ein automatisierter Testablauf durchlaufen. Außerdem wird automatisch die für das Testen benötigte Infrastruktur bereitgestellt und mit HPE Operations Orchestration verwaltet. Ein klassisches DevOps-Szenario.

Erstellt wurde die Pipeline mit dem Open-Source-Tool Jenkins, ein erweiterbares, webbasiertes Software-System zur kontinuierlichen Integration

Vom Code in die Cloud und zurück
Die Pipeline beginnt in der Phase: "Preparation" mit  Aufbereitung und Analyse des neuen Codes. Mithilfe des statischen Analyse-Tools „Sonarqube“ wird dieser auf Korrektheit geprüft. Nach erfolgreichem Abschluss dieses Tests beginnt die nächste Phase: "Build & Distribute". Der neue Code wird kompiliert und auf Repositories verteilt. Des Weiteren werden mit JUnit Unittests durchgeführt. Anschließend wird die Anwendung  einmal auf vSphere und einmal auf Microsoft Azure deployed. Die dafür nötige Infrastruktur wird an dieser Stelle automatisch erzeugt.

In den folgenden Phasen werden erst Funktional- und dann Performance-Tests auf den soeben erzeugten Testinstanzen durchgeführt. Dafür werden unter anderem gängige Werkzeuge, wie HPE Unified Functional Testing (UFT), HPE LeanFT und HPE Loadrunner verwendet.

Da wir ordentlichen Menschen sind, wird nach dieser Phase - unabhängig vom Ergebnis der Tests - wieder aufgeräumt, indem die zuvor erstellten virtuellen Maschinen wieder gelöscht werden. Unter der Voraussetzung positiv durchlaufener Tests, findet unter Verwendung eines HPE Cloud Service Automation (CSA)-Offerings abschließend noch ein Deployment in eine simulierte Produktivumgebung statt.

In wöchentlichen Zwischenpräsentationen gab es stets wertvolles Feedback. So konnten wir die Funktionalität der Pipeline sowie unsere Vortragsweise sukzessive optimieren. An dieser Stelle nochmal vielen Dank dafür an Mario, Thomas, Michael, Martin, Michelle, Jana, Tina, Andrea, Sebastian, Daniel und Frank.

Zum Ende des Projekts präsentierten wir unsere Ergebnisse letzte Woche Freitag in einer vortragsgeführten Live-Demo.

Autor

Gregor Schuldt Associate IT-Consultant
Gregor Schuldt

Uni meets Business

Am 12.05.2017 veranstaltete die Bergakademie Freiberg zum wiederholten Male die Workshop-Reihe „Uni meets Business“. Unternehmen aus verschiedenen Branchen waren vor Ort, um Workshops zu abwechslungsreichen Themen zu halten. So hatten die Studierenden die Möglichkeit, sich praxisnah weiterzubilden und zugleich Kontakt zu potenziellen Arbeitgebern zu knüpfen. Wir gingen dieses Jahr erstmalig mit an den Start und haben den Teilnehmern das Thema IT-Automatisierung unter Fokussierung auf die Kernkompetenzen der profi.com AGquality und cloud – anhand des abstrakten Anwendungsbeispiels eines Pizza-Backautomaten näher gebracht. Unter dem Titel "Was hat Pizza mit IT zu tun? IT-Automatisierung für Einsteiger“ ging es darum, die genauen Anforderungen zu spezifizieren, Automatisierungspotenziale zu erkennen, Testfälle abzuleiten und die Auslieferung zum etwaigen Kunden zu bewerkstelligen.

Trainee Karriere

Die Pipeline steht - vom Code in die Cloud

Unsere Trainees designten einen umfassenden Test- und Bereitstellungsprozess, in dem Changes, Builds, Tests und Deployment in einer automatisierten Pipeline miteinander verbunden werden.

In den letzten 6 Wochen beschäftigten wir uns in einem Praxisprojekt mit dem Erstellen und Vorstellen einer Continuous Deployment Pipeline.  Im Zentrum des Projekts stand eine sich in der laufenden Entwicklung befindende Web-Anwendung. Exemplarisch wurde für das Projekt die "Petclinic" betrachtet.

Für jeden neuen commit der Entwickler - also dem Einspielen von neuem oder geändertem Quelltext - wird schrittweise ein automatisierter Testablauf durchlaufen. Außerdem wird automatisch die für das Testen benötigte Infrastruktur bereitgestellt und mit HPE Operations Orchestration verwaltet. Ein klassisches DevOps-Szenario.

Erstellt wurde die Pipeline mit dem Open-Source-Tool Jenkins, ein erweiterbares, webbasiertes Software-System zur kontinuierlichen Integration

Vom Code in die Cloud und zurück
Die Pipeline beginnt in der Phase: "Preparation" mit  Aufbereitung und Analyse des neuen Codes. Mithilfe des statischen Analyse-Tools „Sonarqube“ wird dieser auf Korrektheit geprüft. Nach erfolgreichem Abschluss dieses Tests beginnt die nächste Phase: "Build & Distribute". Der neue Code wird kompiliert und auf Repositories verteilt. Des Weiteren werden mit JUnit Unittests durchgeführt. Anschließend wird die Anwendung  einmal auf vSphere und einmal auf Microsoft Azure deployed. Die dafür nötige Infrastruktur wird an dieser Stelle automatisch erzeugt.

In den folgenden Phasen werden erst Funktional- und dann Performance-Tests auf den soeben erzeugten Testinstanzen durchgeführt. Dafür werden unter anderem gängige Werkzeuge, wie HPE Unified Functional Testing (UFT), HPE LeanFT und HPE Loadrunner verwendet.

Da wir ordentlichen Menschen sind, wird nach dieser Phase - unabhängig vom Ergebnis der Tests - wieder aufgeräumt, indem die zuvor erstellten virtuellen Maschinen wieder gelöscht werden. Unter der Voraussetzung positiv durchlaufener Tests, findet unter Verwendung eines HPE Cloud Service Automation (CSA)-Offerings abschließend noch ein Deployment in eine simulierte Produktivumgebung statt.

In wöchentlichen Zwischenpräsentationen gab es stets wertvolles Feedback. So konnten wir die Funktionalität der Pipeline sowie unsere Vortragsweise sukzessive optimieren. An dieser Stelle nochmal vielen Dank dafür an Mario, Thomas, Michael, Martin, Michelle, Jana, Tina, Andrea, Sebastian, Daniel und Frank.

Zum Ende des Projekts präsentierten wir unsere Ergebnisse letzte Woche Freitag in einer vortragsgeführten Live-Demo.

Autor

Gregor Schuldt Associate IT-Consultant
Gregor Schuldt

Scrum-Workshop

Gemeinsam mit dem Career Service der HTW Dresden gestalteten wir am 04.05.2017 und am 17.05.2017 einen zweiteiligen Workshop zum Thema SCRUM-Agiles Projektmanagement. Innerhalb des Workshop vermittelte Scrum-Master Sebastian Stephan den Teilnehmern das Grundwissen zur Anwendung der Scrum-Methodik und gab anhand praktischer Übungen einige seiner Praxiserfahrungen weiter.

Trainee Karriere

Die Pipeline steht - vom Code in die Cloud

Unsere Trainees designten einen umfassenden Test- und Bereitstellungsprozess, in dem Changes, Builds, Tests und Deployment in einer automatisierten Pipeline miteinander verbunden werden.

In den letzten 6 Wochen beschäftigten wir uns in einem Praxisprojekt mit dem Erstellen und Vorstellen einer Continuous Deployment Pipeline.  Im Zentrum des Projekts stand eine sich in der laufenden Entwicklung befindende Web-Anwendung. Exemplarisch wurde für das Projekt die "Petclinic" betrachtet.

Für jeden neuen commit der Entwickler - also dem Einspielen von neuem oder geändertem Quelltext - wird schrittweise ein automatisierter Testablauf durchlaufen. Außerdem wird automatisch die für das Testen benötigte Infrastruktur bereitgestellt und mit HPE Operations Orchestration verwaltet. Ein klassisches DevOps-Szenario.

Erstellt wurde die Pipeline mit dem Open-Source-Tool Jenkins, ein erweiterbares, webbasiertes Software-System zur kontinuierlichen Integration

Vom Code in die Cloud und zurück
Die Pipeline beginnt in der Phase: "Preparation" mit  Aufbereitung und Analyse des neuen Codes. Mithilfe des statischen Analyse-Tools „Sonarqube“ wird dieser auf Korrektheit geprüft. Nach erfolgreichem Abschluss dieses Tests beginnt die nächste Phase: "Build & Distribute". Der neue Code wird kompiliert und auf Repositories verteilt. Des Weiteren werden mit JUnit Unittests durchgeführt. Anschließend wird die Anwendung  einmal auf vSphere und einmal auf Microsoft Azure deployed. Die dafür nötige Infrastruktur wird an dieser Stelle automatisch erzeugt.

In den folgenden Phasen werden erst Funktional- und dann Performance-Tests auf den soeben erzeugten Testinstanzen durchgeführt. Dafür werden unter anderem gängige Werkzeuge, wie HPE Unified Functional Testing (UFT), HPE LeanFT und HPE Loadrunner verwendet.

Da wir ordentlichen Menschen sind, wird nach dieser Phase - unabhängig vom Ergebnis der Tests - wieder aufgeräumt, indem die zuvor erstellten virtuellen Maschinen wieder gelöscht werden. Unter der Voraussetzung positiv durchlaufener Tests, findet unter Verwendung eines HPE Cloud Service Automation (CSA)-Offerings abschließend noch ein Deployment in eine simulierte Produktivumgebung statt.

In wöchentlichen Zwischenpräsentationen gab es stets wertvolles Feedback. So konnten wir die Funktionalität der Pipeline sowie unsere Vortragsweise sukzessive optimieren. An dieser Stelle nochmal vielen Dank dafür an Mario, Thomas, Michael, Martin, Michelle, Jana, Tina, Andrea, Sebastian, Daniel und Frank.

Zum Ende des Projekts präsentierten wir unsere Ergebnisse letzte Woche Freitag in einer vortragsgeführten Live-Demo.

Autor

Gregor Schuldt Associate IT-Consultant
Gregor Schuldt

All you can ask

Am 03.07.2017 berichteten mehrere Alumni der Informatik bzw. Medieninformatik über ihren persönlichen Karriereweg in der Wirtschaft. Dabei wurden nicht nur Einblicke in den Arbeitsalltag gegeben, sondern es wurde auch von Studienerfahrungen an der Informatik-Fakultät erzählt. Auf diese Weise konnten die Studierenden verschiedene Berufsbilder kennenlernen und erfahren, wie bestimmte Studieninhalte später angewendet werden. Wir waren erstmals bei der Veranstaltung dabei: Oliver Höhne gab als Absolvent der Informatik an der TU Dresden seine Erfahrungen weiter und berichtete aus erster Hand von seinem Einstieg in die Welt des IT-Consultings.

Trainee Karriere

Die Pipeline steht - vom Code in die Cloud

Unsere Trainees designten einen umfassenden Test- und Bereitstellungsprozess, in dem Changes, Builds, Tests und Deployment in einer automatisierten Pipeline miteinander verbunden werden.

In den letzten 6 Wochen beschäftigten wir uns in einem Praxisprojekt mit dem Erstellen und Vorstellen einer Continuous Deployment Pipeline.  Im Zentrum des Projekts stand eine sich in der laufenden Entwicklung befindende Web-Anwendung. Exemplarisch wurde für das Projekt die "Petclinic" betrachtet.

Für jeden neuen commit der Entwickler - also dem Einspielen von neuem oder geändertem Quelltext - wird schrittweise ein automatisierter Testablauf durchlaufen. Außerdem wird automatisch die für das Testen benötigte Infrastruktur bereitgestellt und mit HPE Operations Orchestration verwaltet. Ein klassisches DevOps-Szenario.

Erstellt wurde die Pipeline mit dem Open-Source-Tool Jenkins, ein erweiterbares, webbasiertes Software-System zur kontinuierlichen Integration

Vom Code in die Cloud und zurück
Die Pipeline beginnt in der Phase: "Preparation" mit  Aufbereitung und Analyse des neuen Codes. Mithilfe des statischen Analyse-Tools „Sonarqube“ wird dieser auf Korrektheit geprüft. Nach erfolgreichem Abschluss dieses Tests beginnt die nächste Phase: "Build & Distribute". Der neue Code wird kompiliert und auf Repositories verteilt. Des Weiteren werden mit JUnit Unittests durchgeführt. Anschließend wird die Anwendung  einmal auf vSphere und einmal auf Microsoft Azure deployed. Die dafür nötige Infrastruktur wird an dieser Stelle automatisch erzeugt.

In den folgenden Phasen werden erst Funktional- und dann Performance-Tests auf den soeben erzeugten Testinstanzen durchgeführt. Dafür werden unter anderem gängige Werkzeuge, wie HPE Unified Functional Testing (UFT), HPE LeanFT und HPE Loadrunner verwendet.

Da wir ordentlichen Menschen sind, wird nach dieser Phase - unabhängig vom Ergebnis der Tests - wieder aufgeräumt, indem die zuvor erstellten virtuellen Maschinen wieder gelöscht werden. Unter der Voraussetzung positiv durchlaufener Tests, findet unter Verwendung eines HPE Cloud Service Automation (CSA)-Offerings abschließend noch ein Deployment in eine simulierte Produktivumgebung statt.

In wöchentlichen Zwischenpräsentationen gab es stets wertvolles Feedback. So konnten wir die Funktionalität der Pipeline sowie unsere Vortragsweise sukzessive optimieren. An dieser Stelle nochmal vielen Dank dafür an Mario, Thomas, Michael, Martin, Michelle, Jana, Tina, Andrea, Sebastian, Daniel und Frank.

Zum Ende des Projekts präsentierten wir unsere Ergebnisse letzte Woche Freitag in einer vortragsgeführten Live-Demo.

Autor

Gregor Schuldt Associate IT-Consultant
Gregor Schuldt

Speed Dating

Am 20.06.2017 waren wir wieder dabei, als es hieß: auf zum Speed Dating! Im Rahmen des Silicon Saxony Days standen wir interessierten Teilnehmerinnen und Teilnehmern Rede und Antwort zur profi.com sowie zu möglichen Einstiegen und Karriereperspektiven bei uns. Der Austausch in kleinen Gruppen sorgte für ein persönliches Kennenlernen, in dem individuelle Fragen gestellt werden konnten.

Also: was wolltet ihr euren zukünftigen Arbeitgeber schon immer fragen?