Eine revolutionäre Methode: ChatGPT und ein Scraper machen die Wohnungssuche in Berlin einfach und erfolgreich
Die Suche nach einer Wohnung in Berlin kann äußerst herausfordernd sein. Jedoch hat ein einfallsreicher Unternehmer eine innovative Lösung gefunden und sich an ChatGPT AI gewandt, um Unterstützung zu erhalten. Dieser intelligente Assistent erwies sich als äußerst hilfreich und half ihm bei der Entwicklung eines Scrapers.
Was bekannt ist
Daniel Dippold, der Gründer und CEO von Ewor Venture Capital, nutzte vor Kurzem ChatGPT, um eine neue Wohnung in Berlin zu finden. In einem LinkedIn-Beitrag erwähnte er, dass der Chatbot von OpenAI hauptsächlich als Programmierwerkzeug fungierte.
Zunächst bat Dippold ChatGPT darum, alle E-Mail-Adressen von Hausverwaltungen in seinem Interessengebiet zu finden. Der Chatbot schlug daraufhin vor, den Scraper zu programmieren. Obwohl der Chatbot einige Fehler im Code machte, gelang es Dippold, diese zu identifizieren und den Bot dazu zu bringen, sie zu korrigieren.
Mithilfe der so erhaltenen E-Mail-Adressen konnte der Unternehmer die entsprechenden Unternehmen kontaktieren. Um jedoch nicht Hunderte von E-Mails einzeln beantworten zu müssen, bat Dippold ChatGPT, automatische Antworten zu erstellen, sobald er eine E-Mail von einem der Unternehmen erhielt.
Natürlich waren einige Anpassungen erforderlich, aber letztendlich erhielt Dippold zwei Bestätigungen und musste nur noch seine Traumwohnung auswählen. Abschließend betonte er die Leistungsfähigkeit von ChatGPT und die potenziellen Vorteile, die es in der Zukunft bieten kann. Seiner Meinung nach könnte man sogar ganze Unternehmen mit ChatGPT gründen und dadurch neue Standards in Bezug auf Zentralisierung und Skalierbarkeit setzen. Gleichzeitig warnte er jedoch vor möglichen Risiken und betonte die Bedeutung einer ausgewogenen Verteilung von Ressourcen und Vermögenswerten.
Über den Scraper
Ein Scraper ist ein Software-Tool, das für das automatische Sammeln von Daten von Webseiten entwickelt wurde. Es wird verwendet, um Informationen aus verschiedenen Internetquellen zu erhalten, indem der HTML-Code der Seiten analysiert und relevante Daten wie Texte, Bilder, URL-Adressen und vieles mehr extrahiert werden. Scraper werden für verschiedene Zwecke eingesetzt, wie zum Beispiel Analytik, Marktforschung, Preisüberwachung, Nachrichtensammlung oder automatische Aktualisierung von Inhalten.
Quelle: t3n
Foto: NewNow