白丝美女被狂躁免费视频网站,500av导航大全精品,yw.193.cnc爆乳尤物未满,97se亚洲综合色区,аⅴ天堂中文在线网官网

首頁 / 專利庫 / 圖形技術(shù) / 顏色數(shù)據(jù) / Verfahren und Vorrichtung zur Verbesserung der Erkennung und/oder Wiedererkennung von Objekten in der Bildverarbeitung

Verfahren und Vorrichtung zur Verbesserung der Erkennung und/oder Wiedererkennung von Objekten in der Bildverarbeitung

閱讀:1030發(fā)布:2020-08-28

專利匯可以提供Verfahren und Vorrichtung zur Verbesserung der Erkennung und/oder Wiedererkennung von Objekten in der Bildverarbeitung專利檢索,專利查詢,專利分析的服務(wù)。并且Verfahren und Vorrichtung zur Verbesserung der Erkennung und/oder Wiedererkennung von Objekten in der Bildverarbeitung mittels mindestens eines Kamera-Rechner-Systems, welches mit mindestens einer Kamera und mindestens einer Recheneinheit ausgebildet ist, wobei mit dem Kamera-Rechner-System mindestens ein Abbild einer Fl?che eines Objekts erfasst und mindestens ein zugeh?riger Sensorpixelwert ermittelt wird, mindestens ein Bereich (31) ermittelt wird, welcher über die Fl?che in die Kamera (10) reflektiert wird, mindestens ein Sensorpixelwert des Bereichs (31) durch die Recheneinheit (11) ermittelt wird, ein Reflexionsanteil mindestens in Abh?ngigkeit von dem mindestens einen Sensorpixelwert des Bereichs (31) ermittelt wird und die Sensorpixelwerte der Fl?che um den Reflexionsanteil korrigiert werden.,下面是Verfahren und Vorrichtung zur Verbesserung der Erkennung und/oder Wiedererkennung von Objekten in der Bildverarbeitung專利的具體信息內(nèi)容。

Verfahren zur Verbesserung der Erkennung und/oder Wiedererkennung von Objekten in der Bildverarbeitung mittels mindestens eines Kamera-Rechner-Systems, welches mit mindestens einer Kamera und
mindestens einer Recheneinheit ausgebildet ist, wobei mit dem Kamera-Rechner-System mindestens ein Abbild einer Fl?che eines Objekts erfasst und mindestens ein zugeh?riger Kamerasensorpixelwert ermittelt wird,
dadurch gekennzeichnet, dass
mindestens ein Bereich (31) ermittelt wird, welcher über die Fl?che in die Kamera (10) reflektiert wird,
mindestens ein Sensorpixelwert des Bereichs (31) durch die
Recheneinheit (11) ermittelt wird,
ein Reflexionsanteil mindestens in Abh?ngigkeit von dem mindestens einen Sensorpixelwert des Bereichs (31) ermittelt wird und
der Sensorpixelwert der Fl?che um den Reflexionsanteil korrigiert wird
Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass ein Sensorpixelwert eine Zahlenmenge ist, welche Werten von Sensoren entspricht, die n?herungsweise auf disjunkte Frequenzbereiche sensitiv sind.Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass als Sensorpixelwert des Objekts (2) und/oder des Bereichs (31) mindestens ein gemittelter Sensorpixelwert gebildet wird, wobei mindestens über Sensorpixelwerte eines Teilbereich eines Abbilds der Fl?che und/oder des Bereichs (31) gemittelt wird.Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der Teilbereich der Fl?che mittig liegt.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass als Fl?che eine Seitenfl?che (21) und/oder Dachfl?che (22) und/oder ein vorderer und/oder ein hinterer Teil des
Daches des Objekts gew?hlt wird.
Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Wahl des Fl?chenteiles und/oder die Ermittlung des Reflexionsanteils mindestens unter Berücksichtigung mindestens eines Blickwinkels erfolgt, unter welchem der reflektierte Bereich (31) auf dem Objekt (2) von der Kamera (10) erfasst wird, in Abh?ngigkeit vom Blickwinkel der Kamera (10) und/oder in Abh?ngigkeit vom Sonnenstand und/oder von erfassten Witterungsbedingungen.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass Oberfl?cheneigenschaften des Objekts (2) im Reflexionsanteil berücksichtigt werden.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass vor der Kamera (10) ein Spiegel angebracht ist, der mindestens einen Teil des Himmels auf einen Bereich des Kamerasensors lenkt, der nicht für die Verkehrsdatenextraktion ben?tigt wird.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das Verfahren zur Erkennung von Objekten in
einer Verkehrsüberwachung verwendet wird und/oder für eine Verkehrssimulation, Signalanlagensteuerung und/oder für einen Routenplanungsdienst.
Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die für die Wiedererkennung von Objekten n?tige initiale Reisezeitsch?tzung und Reisezeitintervallsch?tzung numerisch mit Hilfe einer Verkehrssimulation erfolgt, wobei unterhalb einer Schwellenwertgeschwindigkeit das Reisezeitintervall so gro? gew?hlt wird, dass Reisezeiten, wie sie einem Stau entspr?chen, enthalten sind, um auch bei Staus gut Fahrzeuge wieder erkennen zu k?nnen.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass eine Sch?tzung der zeitabh?ngigen üblichen Reisezeit berechnet wird, indem eine Mittelung über einige zeitlich benachbarte extrahierte Reisezeiten erfolgt.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass zur Ermittlung der gesamten gewichteten Abweichungen der verschiedenen Parameter von Objekten für die Fahrzeugwiedererkennung eine empirisch begründete Sch?tzung der Funktionen der empirischen Standardabweichungen der Parameter berücksichtigt wird, sowie eine empirisch begründete gesch?tzte Relevanz der einzelnen Parameter für die Wiedererkennung.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Optimierung der Parameter für die Wiedererkennung - wie Schwellenwerte - für -verschiedene Abst?nde der Kameras vereinfacht wird, indem Daten für einen Kameraabstand erhoben werden, und anschlie?end der Fall verschiedener Kameraabst?nde simuliert wird, indem man für Objekte derjenigen Kamera, die flussaufw?rts gelegen ist, die initiale Reisezeitsch?tzung analytisch oder numerisch mit einer Verkehrssimulation durchführt für den realen Kameraabstand und für einen zweiten virtuellen gewünschten Abstand, und danach die an der Kamera flussabw?rts ermittelten Objekte virtuell verschiebt gem?? der Differenz der gesch?tzten Reisezeiten.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Erfassung von Daten wie Farbdaten über die Objekte bei der Wiedererkennung von Objektfolgen.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass anstelle der mit Videodetektoren ermittelbaren Zeitlücke für eine Zeitlückensteuerung oder der ermittelbaren maximalen Aufstelll?nge eine pro LSA-Umlauf zeitlich gemittelte Aufstelll?nge oder diejenige, die zu einer definierten Zeit nach Beginn der Rotphase vorliegt, oder die detektierte Fahrzeugdichte etwa zu Beginn der Rotphase, berücksichtigt wird, um eine LSA-Steuerung durchzuführen.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass eine weiter verbesserte Netz- und/oder LSA-Steuerung erzielt wird, indem die Informationen über ermittelten Abst?nde, Geschwindigkeiten und Beschleunigungen der einzelnen Fahrzeuge vor einer LSA mitberücksichtigt werden.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die aus der mittels Fahrzeugwiedererkennung berechneten Reisezeiten unter zu Hilfenahme von Fundamentaldiagrammen des Verkehrs und/oder mittels Verkehrssimulation verwendet werden, um eine Information über die Anzahl der Fahrzeuge im nicht-überwachten Gebiet und somit über die Fahrzeugdichte zu erzeugen.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Verkehrs- und Reisezeitinformationen Datenbanken und einem dynamischen Routingdienst zur Verfügung gestellt werden.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Routingsoftware in einer oder mehreren Zentrale(n) und/oder im Fahrzeug selbst enthalten ist.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Reisezeitinformationen der einzelnen Objekte, die Reisezeiten aufzeichnen k?nnen von diesen und/oder vom zentralen Routingdienst an ein lokales und/oder zentrales LSA-Steuerungssystem gesendet werden.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass Informationen, die Rückschlüsse über die Witterung enthalten an die Verkehrssteuerungs-/Routingsysteme und - oder von dort - an die Fahrzeugerkennungssoftware weitergeleitet werden.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass ein dynamisches Re-Routing mit Hilfe der aktuellen Reisezeitinformationen durchgeführt wirdVerfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Reisezeitinformationen in einer Verkehrssteuerung, die eine Lastabwurfstrategie beinhaltet, berücksichtigt werden.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Verkehrs- und Reisezeitinformationen mit einer Verkehrssimulation für eine Korridorsteuerung, zwischen zwei Punkten einer Stadt, eingesetzt werden.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die genannten Verkehrssteuerungsinformationen zur Verbesserung eines dynamischen Re-Routings verwendet werden.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass für Gruppen von Fahrzeugen beim dynamischen Re-Routing berücksichtigt wird, dass die Gruppe m?glichst gar nicht oder nicht mehr als einen bestimmten Abstand getrennt werden soll.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass Verkehrssteuerungssysteme wie LSA-Steuerungssysteme via Funk den Fahrzeugen mit entsprechender Empfangsvorrichtung Informationen, über die verbleibende Dauer der Rotphase, Staus, St?rf?lle, Informationen über Ziele, freien Parkraum und/oder Werbung mitteilen, und dass vom Fahrzeug aus mittels Funk Parkraum reserviert/bezahlt und/oder Waren/Dienstleistungen gekauft werden k?nnen.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass Fahrzeuge mit Sonderrechten LSA-Steuerungssystemen Informationen senden, dass sie an eine LSA heranfahren, welchen Zielort sie haben und welche Route sie verwenden m?chten.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass elektronische Informationssysteme an der Stra?e und Informationen an XFCD-Fahrzeuge eine konzertierte Verkehrssteuerung zusammen mit den LSA-Steuerungen und Geschwindigkeitsbegrenzungssignalanlagen durchführen.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass mittels einer Verkehrssimulation gem?? Anspruch 16 jedoch mit einer stochastischen Simulation vorab der Verkehr simuliert wird, insbesondere ob in einem Abschnitt ein Stau zu erwarten ist.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass, nachdem durch einen Nutzer eines Navigationssystems eine Route gew?hlt wurde, die Route an ein Verkehrssteuerungs-/Routingsystem übermittelt wird.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die durch die Fahrzeugwiedererkennung ermittelten Reisezeitinformationen und/oder daraus durch Verkehrssimulation prognostizierten Reisezeitinformationen einem elektronischen Mautsystem zur Verfügung gestellt werden.Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das Routingsystem, dass auf den beschriebenen Verkehrsdaten beruht, erweitert wird, indem, bei einem Unfall und/oder Notfall mittels Funk den Routingdiensten und/oder anderen XFCD-Fahrzeugen mitgeteilt wird, was wo ben?tigt wird oder die Daten von Sonderfahrzeugen berücksichtigt werden.Vorrichtung zur Verbesserung der Erkennung und/oder Wiedererkennung von Objekten in der Bildverarbeitung umfassend mindestens ein Kamera-Rechner-System, welches mit mindestens einer Kamera und mindestens einer Recheneinheit ausgebildet ist, wobei mit dem Kamera-Rechner-System mindestens ein Abbild einer Fl?che eines Objekts erfassbar und mindestens ein zugeh?riger Farbdatenwert ermittelbar ist, dadurch gekennzeichnet, dass
mindestens ein Bereich (31) ermittelt durch die Recheneinheit (11) ermittelbar ist, welcher über die Fl?che in die Kamera (10) reflektiert wird, mindestens ein Sensorpixelwert des Bereichs (31) durch die Recheneinheit (11) ermittelbar ist,
ein Reflexionsanteil mindestens in Abh?ngigkeit von dem mindestens einen Sensorpixelwert des Bereichs (31) ermittelbar ist und
der Sensorpixelwert der Fl?che um den Reflexionsanteil korrigierbar ist
Vorrichtung nach Anspruch 34, dadurch gekennzeichnet, dass ein Sensorpixelwert eine Zahlenmenge ist, welche Werten von Sensoren entspricht, die n?herungsweise auf disjunkte Frequenzbereiche sensitiv sind.Vorrichtung nach Anspruch 34 oder 35, dadurch gekennzeichnet, dass als Sensorpixelwert des Objekts (2) und/oder des Bereichs (31) mindestens ein mittlerer Sensorpixelwert bildbar ist, wobei mindestens über Sensorpixelwerte eines Teilbereich eines Abbilds der Fl?che und/oder des Bereichs (31) gemittelt wird.Vorrichtung nach Anspruch 36, dadurch gekennzeichnet, dass der Teilbereich der Fl?che mittig liegt.Vorrichtung nach einem der Ansprüche 34 bis 37, dadurch gekennzeichnet, dass als Fl?che eine Seitenfl?che (21) und/oder Dachfl?che (22) und/oder ein vorderer und/oder ein hinterer Teil des Daches des Objekts gew?hlt wird.Vorrichtung nach einem der Ansprüche 34 bis 38, dadurch gekennzeichnet, dass die Wahl des Fl?chenteiles und/oder die Ermittlung des Reflexionsanteils mindestens unter Berücksichtigung mindestens eines Blickwinkels erfolgt, unter welchem der reflektierte Bereich (31) auf dem Objekt (2) von der Kamera (10) erfasst wird, in Abh?ngigkeit vom Blickwinkel der Kamera und/oder in Abh?ngigkeit vom Sonnenstand und/oder von erfassten Witterungsbedingungen.Vorrichtung nach einem der Ansprüche 34 bis 39, dadurch gekennzeichnet, dass übliche Oberfl?cheneigenschaften des Objekts (2) im Reflexionsanteil berücksichtigt werden.Vorrichtung nach einem der Ansprüche 34 bis 40, dadurch gekennzeichnet, dass die Kamera (10) mit einem Spiegel ausgebildet ist, der mindestens einen Teil des Himmels auf einen Bereich des Kamerasensors abbildet, der nicht für die Verkehrsdatenextraktion ben?tigt wird.Vorrichtung nach einem der Ansprüche 34 bis 41, dadurch gekennzeichnet, dass die Vorrichtung Bestandteil einer Vorrichtung zur Verkehrsüberwachung ist und/oder Bestandteil einer Verkehrssimulation, einer Signalanlagensteuerung und/oder eines Routenplanungsdienstes.Vorrichtung nach einem der Ansprüche 34 bis 42, dadurch gekennzeichnet, dass die für die Wiedererkennung von Objekten n?tige initiale Reisezeitsch?tzung und Reisezeitintervallsch?tzung numerisch mit Hilfe einer Verkehrssimulation erfolgt, wobei unterhalb einer Schwellenwertgeschwindigkeit das Reisezeitintervall so gro? gew?hlt wird, dass Reisezeiten, wie sie einem Stau entspr?chen, enthalten sind, um auch bei Staus gut Fahrzeuge wieder erkennen zu k?nnen.Vorrichtung nach einem der Ansprüche 34 bis 43, dadurch gekennzeichnet, dass eine Sch?tzung der zeitabh?ngigen üblichen Reisezeit berechnet wird, indem eine Mittelung über einige zeitlich benachbarte extrahierte Reisezeiten erfolgtVorrichtung nach einem der Ansprüche 34 bis 44, dadurch gekennzeichnet, dass zur Ermittlung der gesamten gewichteten Abweichungen der verschiedenen Parameter von Objekten für die Fahrzeugwiedererkennung eine empirisch begründete der Funktionen der empirischen Standardabweichungen der Parameter berücksichtigt wird, sowie eine empirisch begründete gesch?tzte Relevanz der einzelnen Parameter für die Wiedererkennung.Vorrichtung nach einem der Ansprüche 34 bis 45, dadurch gekennzeichnet, dass die Optimierung der Parameter für die Wiedererkennung - wie Schwellenwerte - für verschiedene Abst?nde der Kameras vereinfacht wird, indem Daten für einen Kameraabstand erhoben werden, und anschlie?end der Fall verschiedener Kameraabst?nde simuliert wird, indem man für Objekte derjenigen Kamera, die flussaufw?rts gelegen ist, die initiale Reisezeitsch?tzung analytisch oder numerisch mit einer Verkehrssimulation durchführt für den realen Kameraabstand und für einen zweiten virtuellen gewünschten Abstand, und danach die an der Kamera flussabw?rts ermittelten Objekte virtuell verschiebt gem?? der Differenz der gesch?tzten Reisezeiten.Vorrichtung nach einem der Ansprüche 34 bis 46, dadurch gekennzeichnet, dass die Erfassung von Daten wie Farbdaten über die Objekte bei der Wiedererkennung von Objektfolgen eingesetzt wird.Vorrichtung nach einem der Ansprüche 34 bis 47, dadurch gekennzeichnet, dass anstelle der mit Videodetektoren ermittelbaren Zeitlücke für eine Zeitlückensteuerung oder der ermittelbaren maximalen Aufstelll?nge eine pro LSA-Umlauf zeitlich gemittelte Aufstelll?nge oder diejenige, die zu einer definierten Zeit nach Beginn der Rotphase vorliegt, oder die detektierte Fahrzeugdichte etwa zu Beginn der Rotphase, berücksichtigt wird, um eine LSA-Steuerung durchzuführen.Vorrichtung nach einem der Ansprüche 34 bis 48, dadurch gekennzeichnet, dass eine weiter verbesserte Netz- und/oder LSA-Steuerung erzielt wird, indem die Informationen über ermittelten Abst?nde, Geschwindigkeiten und Beschleunigungen der einzelnen Fahrzeuge vor einer LSA mitberücksichtigt werden.Vorrichtung nach einem der Ansprüche 34 bis 49, dadurch gekennzeichnet, dass die aus der mittels Fahrzeugwiedererkennung berechneten Reisezeiten unter zu Hilfenahme von Fundamentaldiagrammen des Verkehrs und/oder mittels Verkehrssimulation verwendet werden, um eine Information über die Anzahl der Fahrzeuge im nicht-überwachten Gebiet und somit über die Fahrzeugdichte zu erzeugen.Vorrichtung nach einem der Ansprüche 34 bis 50, dadurch gekennzeichnet, dass die Verkehrs- und Reisezeitinformationen Datenbanken und einem dynamischen Routingdienst zur Verfügung gestellt werden.Vorrichtung nach einem der Ansprüche 34 bis 51, dadurch gekennzeichnet, dass die Routingsoftware in einer oder mehreren Zentrale(n) und/oder im Fahrzeug selbst enthalten ist.Vorrichtung nach einem der Ansprüche 34 bis 52, dadurch gekennzeichnet, dass die Reisezeitinformationen der einzelnen Objekte, die Reisezeiten aufzeichnen k?nnen, von diesen und/oder vom zentralen Routingdienst an ein lokales und/oder zentrales LSA-Steuerungssystem gesendet werden.Vorrichtung nach einem der Ansprüche 34 bis 53, dadurch gekennzeichnet, dass Informationen die Rückschlüsse über die Witterung enthalten, an die Verkehrssteuerungs-/Routingsysteme und - oder von dort - an die Fahrzeugerkennungssoftware weitergeleitet werden. !!Vorrichtung nach einem der Ansprüche 34 bis 54, dadurch gekennzeichnet, dass ein dynamisches Re-Routing mit Hilfe der aktuellen Reisezeitinformationen durchgeführt wird.Vorrichtung nach einem der Ansprüche 34 bis 55, dadurch gekennzeichnet, dass die Reisezeitinformationen in einer Verkehrssteuerung, die eine Lastabwurfstrategie beinhaltet, berücksichtigt werden.Vorrichtung nach einem der Ansprüche 34 bis 56, dadurch gekennzeichnet, dass die Verkehrs- und Reisezeitinformationen mit einer Verkehrssimulation für eine Korridorsteuerung, zwischen zwei Punkten einer Stadt, eingesetzt werden.Vorrichtung nach einem der Ansprüche 34 bis 57, dadurch gekennzeichnet, dass die genannten Verkehrssteuerungsinformationen zur Verbesserung eines dynamischen Re-Routings verwendet werden.Vorrichtung nach einem der Ansprüche 34 bis 58, dadurch gekennzeichnet, dass für Gruppen von Fahrzeugen beim dynamischen Re-Routing berücksichtigt wird, dass die Gruppe m?glichst gar nicht oder nicht mehr als einen bestimmten Abstand getrennt werden soll.Vorrichtung nach einem der Ansprüche 34 bis 59, dadurch gekennzeichnet, dass Verkehrssteuerungssysteme wie LSA-Steuerungssysteme den Fahrzeugen mit entsprechender Empfangsvorrichtung Informationen, über die verbleibende Dauer der Rotphase, Staus, St?rf?lle, Informationen über Ziele, freien Parkraum und/oder Werbung mitteilen, und dass vom Fahrzeug aus mittels Funk Parkraum reserviert/bezahlt und/oder Waren/Dienstleistungen gekauft werden k?nnen.Vorrichtung nach einem der Ansprüche 34 bis 61, dadurch gekennzeichnet, dass Fahrzeuge mit Sonderrechten LSA-Steuerungssystemen Informationen senden, dass sie an eine LSA heranfahren, welchen Zielort sie haben und welche Route sie verwenden m?chten.Vorrichtung nach einem der Ansprüche 34 bis 61, dadurch gekennzeichnet, dass elektronische Informationssysteme an der Stra?e und Informationen an XFCD-Fahrzeuge eine konzertierte Verkehrssteuerung zusammen mit den LSA-Steuerungen und Geschwindigkeitsbegrenzungssignalanlagen durchführenVorrichtung nach einem der Ansprüche 34 bis 62, dadurch gekennzeichnet, dass mittels einer Verkehrssimulation gem?? Anspruch 49 jedoch mit einer stochastischen Simulation vorab der Verkehr simuliert wird, insbesondere ob in einem Abschnitt ein Stau zu erwarten ist. vorgebeugt wird.Vorrichtung nach einem der Ansprüche 34 bis 63, dadurch gekennzeichnet, dass, nachdem durch einen Nutzer eines Navigationssystems eine Route gew?hlt wurde, die Route an ein Verkehrssteuerungs-/Routingsystem übermittelt wird.Verfahren nach einem der Ansprüche 34 bis 64, dadurch gekennzeichnet, dass die durch die Fahrzeugwiedererkennung ermittelten Reisezeitinformationen und/oder daraus durch Verkehrssimulation prognostizierten Reisezeitinformationen einem elektronischen Mautsystem zur Verfügung gestellt werden.Vorrichtung nach einem der Ansprüche 34 bis 65, dadurch gekennzeichnet, dass das Routingsystem, dass auf den beschriebenen Verkehrsdaten beruht, erweitert wird, indem, bei einem Unfall und/oder Notfall mittels Funk den Routingdiensten und/oder anderen XFCD-Fahrzeugen mitgeteilt wird, was wo ben?tigt wird oder die Daten von Sonderfahrzeugen berücksichtigt werden.
說明書全文

Die Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zur Verbesserung der Erkennung und/oder Wiedererkennung von Objekten in der Bildverarbeitung.

Eine Erkennung und/oder Wiedererkennung von Objekten in der Bildverarbeitung ist beispielsweise für eine Verkehrsüberwachung, eine Sicherheitsüberwachung von Regionen und/oder eine kartographische Erfassung von Gebieten mittels Kamerabilder erforderlich.

Aufgrund von Kosten sollte die Anzahl der Kameras für eine überwachung gering gehalten werden. Die Anzahl der Kameras zum überwachen des Verkehrs einer Region ist durch eine Wiedererkennung von Objekten reduzierbar. Objekte, die den Bereich einer Kamera verlassen und in den Bereich einer entfernteren z.B. an der n?chsten Kreuzung gelangen und dort wieder erkannt werden, erm?glichen eine Reisezeitermittlung und eine Sch?tzung des Verkehrs auf dem dazwischen liegenden nicht-überwachten Bereich.

Für eine Verkehrsüberwachung k?nnen mit Hilfe der Erkennung und/oder Wiedererkennung anonymisierte Routeninformationen gewonnen werden, durch die wichtige Kenngr??en des Verkehrs erfassbar sind. Diese Informationen sind beispielsweise für eine Verkehrssimulation und/oder ein automatisiertes Verkehrsleitsystem von Interesse. Die Qualit?t der Informationen ist dabei abh?ngig von einer Erfolgsrate der Erkennung und/oder Wiedererkennung.

Speziell im Verkehr ist es denkbar, Fahrzeuge anhand des Kennzeichens wieder zu erkennen. Bei einer Kennzeichenerkennung auf allen Fahrspuren einer Kreuzung ist jedoch eine gro?e Anzahl an Kameras n?tig, was einen Kostenfaktor darstellt. Eine Kennzeichenerkennung ist daher an bestimmten

Stellen beispielsweise für eine Mauterfassung sinnvoll, weniger für eine fl?chendeckende Verkehrsbeobachtung.

Für eine Verkehrsbeobachtung ist beispielsweise aus "Untersuchungen zu einer systematischen Leistungssteigerung in der modellbasierten Bildfolgenauswertung" (H. Leuck, Berichte aus der Informatik, Shaker Verlag, Aachen 2001) bekannt, Hypothesen über die Art und Position eines Objektes aufzustellen, wobei für die Erkennung die einzelnen Hypothesen durch geeignete Verfahren ausgewertet werden. Weiter ist es bekannt, dass durch Vergleich von extrahierten Objektmerkmalen bei Objekten, die zu verschiedenen Zeiten an verschiedenen Orten aufgenommen werden, eine Wiedererkennung von Objekten m?glich ist (R. Woesler, Fast extraction of traffic data and reidentification of vehicles from video data. IEEE 6th International Conference On Intelligent Transportation Systems, Shanghai, China, Conference Proceedings, IEEE Catalog Number: 03TH8708C, ISBN 0-7803-8126-2, 2003). Dabei werden für eine Steigerung

der Erfolgsrate einer Objektwiedererkennung zu den Objekt-Hypothesen weitere Merkmale wie Kamerapixelwerte ermittelt. Die Ermittlung erfolgt beispielsweise mit einer Farbmatrixkamera. Dennoch ist die Erfolgsrate der Erkennung und/oder Wiedererkennung nicht optimal.

Der Erfindung liegt daher das technische Problem zugrunde, ein Verfahren und eine Vorrichtung zu schaffen, durch welche die Erkennung und/oder Wiedererkennung von Objekten verbessert wird.

Die L?sung des Problems ergibt sich durch die Gegenst?nde mit den Merkmalen der Patentansprüche 1 und 34. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.

Für eine verbesserte Erkennung und/oder Wiedererkennung von Objekten, beispielsweise Fahrzeuge, Anh?nger, Radfahrer, Fu?g?nger, Geb?ude etc., werden mit mindestens einem Kamera-Rechner-System von mindestens einer Fl?che eines Objekts Kamerasensorpixelwerte erfasst und die erfassten Sensorpixelwerte

werden um einen Reflexionsanteil korrigiert. Zur Bestimmung des Reflexionsanteils wird mindestens ein Bereich ermittelt, welcher über die Fl?che in die Kamera reflektiert wird und mindestens ein Sensorpixelwert des Bereichs erfasst. Der Reflexionsanteil wird in Abh?ngigkeit von dem oder den Sensorpixelwert(en) ermittelt. Direkt erhobene Sensorpixelwerte weisen im Allgemeinen eine hohe Abweichung von Sensorpixelwerten unter normierten Bedingungen auf, da Fl?chen von Objekten, insbesondere von Fahrzeugen mit einer lackierten Oberfl?che, teilweise stark reflektierend sind. Durch die Berücksichtigung der Sensorpixelwerte des reflektierten Bereichs sind Verf?lschungen der erfassten Sensorpixelwerte der Fl?che aufgrund von Reflexionen an der Fl?che n?herungsweise korrigierbar. Der korrigierte Wert kommt dabei einem Wert nahe, der einem Teil des Bereiches entspr?che, wenn die verf?lschende Reflexion nicht vorhanden w?re. Mit Hilfe des korrigierten Sensorpixelwerts kann

eine Objekt-Hypothese pr?zisiert werden und die Erfolgsrate einer Wiedererkennung der Objekte unter anderen Blickwinkeln etc. erh?ht werden.

Als Sensorpixelwert wird dabei eine Zahlenmenge bezeichnet, die Sensorpixelausgabewerten entspricht, die beispielsweise mittels Schwarz-Wei?-Kamera und/oder Farbmatrixkamera und/oder Infrarot-Kamera (IR-Kamera) ermittelt werden. Eine Weiterverarbeitung der Daten ist bei RGB-Daten sowohl als RGB-Wert

und/oder durch eine andere Darstellung von Farbdatenwerten denkbar, welche beispielsweise durch Transformation aus den RGB-Werten ermittelbar ist.

In einer weiteren bevorzugten Ausführungsform wird als Sensorpixelwert des Objekts und/oder des reflektierten Bereichs mindestens ein gemittelter Sensorpixelwert gebildet, wobei mindestens über einen Teilbereich eines Abbilds der Fl?che und/oder des Bereichs gemittelt wird. Eine Fl?che eines Objekts und/oder ein reflektierter Bereich kann in selteneren F?llen stellenweise ungünstige Eigenschaften für eine Bestimmung eines Sensorpixelwertes aufweisen. Ursache hierfür ist beispielsweise eine Fahrbahnmarkierung, eine partielle starke Verschmutzung der Fl?che, eine Pfütze und/oder vereiste Stellen im reflektierten Bereich. Bei Fahrbahnmarkierungen, welche im reflektierten Bereich liegen, kann gemittelt werden über den Bereich. Alternativ kann der Bereich z.B. der Seitenfl?che eines Fahrzeugs an etwas anderer Stelle des Fahrzeugs gew?hlt werden, so dass keine Fahrbahnmarkierung etc. im reflektierten Bereich erwartet wird.

Die Sensorpixelwerte verschiedener Fl?chen z.B. eines Fahrzeugs weisen im Regelfall einen verschieden hohen Reflexionsanteil auf. Das Dach eines PKW reflektiert oft den zumeist hellen Himmel, so dass dieser dann wesentlich st?rker ver?ndert ist als z.B. die Werte einer PKW-Seitenfl?che, die in erster N?herung senkrecht zur Ebene der Fahrspur steht und im Allgemeinen nicht den Himmel reflektiert. Falls keine Informationen über Sensorpixelwerte des Himmels vorliegen, wird für eine Fahrzeugwiedererkennung vorzugsweise extrahierten Seitenfl?chenfarben eine h?here Gewichtung beigemessen. Wenn zus?tzlich zu Seitenfl?chenfarbdaten oder ausschlie?lich Fahrzeugdachfarbdaten extrahiert werden, ist ein vertikaler Polarisationsfilter sinnvoll. 'Vertikal' bedeutet hierbei, dass der Filter parallel vor dem Objektiv angebracht wird und zwar so, dass die Polarisationsrichtung, welche der Filter nicht durchl?sst, die horizontale Richtung ist. Ein vertikaler Polarisationsfilter bewirkt eine Reduzierung des von Fahrzeugd?chern reflektierten hellen Himmelslichts, weil das durch die D?cher reflektierte Licht vorzugsweise etwa horizontale Polarisation aufweist, insbesondere nahe dem Brewsterwinkel. Daher k?nnen geeignete Dachpixelwerte besser mit vertikalem Polarisationsfilter extrahiert werden, weil dann das reflektierte Himmelslicht n?herungsweise durch den Filter abgehalten wird. Auch in dem Fall kann eine zus?tzliche algorithmische Korrektur des verbleibenden Reflexionsanteils durchgeführt werden, in erster N?herung ohne Kenntnis der entsprechenden Pixelwerte des Himmels, und in genauerer N?herung, sofern

Pixelwerte des Himmels, optimalerweise insbesondere etwa des Bereichs, der über das Dach üblich in die Kamera reflektiert wird, zus?tzlich extrahiert werden, unter Berücksichtigung dieser Werte. Man berücksichtigt dabei jeweils eine übliche bekannte vorzugsweise Polarisationsrichtung und einen üblichen Polarisationsgrad des Himmelslichts, welche insbesondere vom Sonnenstand abh?ngen. Ferner kann gegebenenfalls mit Hilfe der Himmelsfarbdatenwerte zusammen mit Sonnenstand und Blickwinkel im Allgemeinen eine bessere Sch?tzung des üblichen zugeh?rigen Polarisationsgrades des Lichts ermittelt werden; z.B. hat blauer Himmel einen anderen Polarisationsgrad als grauer, bew?lkter Himmel.

Vorzugsweise wird der Teilbereich der Fl?che, von dem Sensorpixelwerte extrahiert werden, in der Mitte der Fl?che gew?hlt, denn Sensorpixelwerte der Randbereiche sind aufgrund von Formgebung des Objekts und/oder anderen Einflüssen wie Verschmutzung des Objekts in Bodenn?he h?ufig st?rker verf?lscht.

In Einzelf?llen k?nnen jedoch auch andere Teilbereiche sinnvoll sein. Bei einer hohen Verkehrsdichte und/oder ungeeigneten Blickwinkeln der Kamera, kann es vorkommen, dass der Bereich z.B. der Stra?e, der über den Teil der Fl?che in die Kamera reflektiert würde, nicht direkt auf den Sensor abgebildet wird sondern verdeckt ist von einem weiteren Objekt. In diesem Fall ist es denkbar, auf andere Fl?chen auszuweichen. Zus?tzlich sind bei Seitenfl?chen Sensorpixelwerte aus etwas weiter unten gelegenen Teilen der Fl?che extrahierbar. üblich ist eine leicht konvexe Krümmung der Seitenfl?che, so dass tiefer liegende Teilbereiche Bereiche sind, die Teile der Stra?e in die Kamera reflektieren, die dann noch oft von keiner anderen Objekthypothese verdeckt sind. Wenn dies der Fall ist, kann dort die Farbdatenextraktion erfolgen.

Wenn bei einem Objekt zuf?llig keine geeigneten Fl?chen sichtbar sein sollten, so kann dieses Objekt auch in dem Auswerteabschnitt der Wiedererkennung ausgelassen werden. Im Regelfall ist ein gewisser Prozentsatz wiedererkannter Objekte ausreichend, um Reisezeiten zwischen Kreuzungen zu ermitteln.

In einer weiteren bevorzugten Ausführungsform wird der Reflexionsanteil, um welchen der erfasste Sensorpixelwert der Fl?che oder des Teilbereichs korrigiert werden soll, mindestens unter Berücksichtigung mindestens eines Blickwinkels ermittelt, unter welchem der reflektierte Bereich auf dem Objekt, genauer auf der Fl?che oder dem Teilbereich der Fl?che, von der Kamera erfasst wird. Des Weiteren wird er vorzugsweise unter Berücksichtigung des Sonnenstandes ermittelt.

In einer weiteren Ausführungsform werden Oberfl?cheneigenschaften des Objekts im Reflexionsanteil berücksichtigt. Dabei werden beispielsweise übliche Reflexionseigenschaften von Fahrzeuglacken bei üblichem Verschmutzungsgrad und/oder Farbabh?ngigkeiten berücksichtigt. Um den üblichen Verschmutzungsgrad zu ermitteln, sind beispielsweise erfasste Witterungsbedingungen berücksichtigbar.

Vielfach wird von einer Kamera kein Himmelslicht direkt aufgezeichnet. In dem Falle k?nnen Himmelspixelwerte beispielsweise durch eine zus?tzliche Kamera extrahiert werden. Vorzugsweise wird anstelle einer zus?tzlichen Kamera ein Spiegel eingesetzt, welcher vor der Kamera starr anbringbar ist und

der in einen Bildbereich der Kamera, der nicht für die übrige Bildverarbeitung ben?tigt wird, das Himmelslicht reflektiert. Der Spiegel ist vorzugsweise gekrümmt, so dass ein Gro?teil des Himmels auf einen Teilbereich des Sensors reflektiert wird. Himmelspixeldatenwerte sind dann n?herungsweise in

den entsprechenden Pixelwerten der Bereiche kodiert, die den Spiegel abbilden, und k?nnen somit für die Korrektur

der Sensorpixelwerte vom Fahrzeugdach verwendet werden. Ferner k?nnen die Himmelspixeldaten für eine Beleuchtungssch?tzung des überwachten Bereichs eingesetzt werden.

Durch den Vergleich der gesamten gewichteten Abweichungen der verschiedenen Parameter kann bei Unterschreiten eines Schwellenwertes die vorl?ufige Hypothese gleiches Objekt gestellt werden, sofern die Objekte in einem Intervall um die gesch?tzte Reisezeit liegen. Die Reisezeitsch?tzung kann analytisch oder durch eine numerische Verkehrssimulation erfolgen, wobei unterhalb einer Schwellenwertgeschwindigkeit das Reisezeitintervall so gro? gew?hlt werden kann, dass Reisezeiten, wie sie einem Stau entspr?chen, enthalten sind, um auch bei Staus Fahrzeuge wieder erkennen zu k?nnen. Zur Ermittlung der gesamten gewichteten Abweichungen der verschiedenen Parameter kann vorzugsweise eine Sch?tzung (die z.B. auch durch ein Trainingsverfahren gewonnen werden kann)der Funktionen der empirischen Standardabweichungen der Parameter berücksichtigt werden, sowie die gesch?tzte Relevanz der einzelnen Parameter für die Wiedererkennung - z.B. ist die Abweichung der Helligkeit weniger relevant wie die Abweichung des Farbtons. Wenn das Objekt, das den niedrigsten Abweichungswert aufweist, einen um einen weiteren Schwellenwert niedrigeren Abweichungswert besitzt als das Objekt mit dem zweitkleinsten Abweichungswert, so kann die endgültige Hypothese gleiches Objekt aufgestellt werden.

Weiter k?nnen in das Verfahren weitere Daten wie zeitlich hochaufgel?ste Daten von Induktionsschleifen zur Fahrzeugerkennung integriert werden, indem diese Daten geeignet transformiert werden und gewichtete Abweichungen der transformierten Daten für je zwei Objekte berücksichtigt werden bei der Berechnung der gesamten gewichteten Abweichung als weitere Parameter. Dadurch werden Objekte korrekt unterschieden, die z.B. optisch sehr ?hnlich sind, sich jedoch ausreichend bzgl. ihrer Induktionsschleifendaten unterscheiden. In analoger Weise k?nnen Daten aus Kameras an Fahrzeugen, die z.B. an Bussen angebracht sind, extrahiert werden, und mit Radar- und Laserdetektoren, Ultraschallsensoren, XFCD-Daten, luft- oder allgestützte Verkehrsdaten integriert werden.

Weiter kann für das somit am geeignetsten erscheinende Objekt untersucht werden, ob zu diesem wiederum ein anderes noch geeigneteres existiert - optional usw. - und in letzterem Falle dies bei der endgültigen Hypothesenbildung berücksichtigt werden.

Falls man an einer hohen Erfolgsrate der Wiedererkennung und nicht an dem Erhalt von Routeninformationen interessiert ist, und falls die Spurwechselh?ufigkeit in dem betrachteten Abschnitt üblich sehr gering ist, so kann die Erfolgsrate der Wiedererkennung erh?ht werden, indem man Spurwechsler nicht berücksichtigt für die Wiedererkennung. Insbesondere bei kleinem Abstand der Kameras ist Spurwechsel sehr selten. Beispielsweise ist bei zwei Spuren oft die Anzahl der zu vergleichenden Objekte etwa halbiert, wenn man jeweils nur Objekte auf derselben Spur vergleicht. Durch die Reduzierung der zu vergleichenden ?hnlichen Objekte erh?ht sich i. allg. die Anzahl der endgültigen Wiedererkennungshypothesen.

Die Optimierung der Parameter für die Wiedererkennung - wie Schwellenwerte - für verschiedene Abst?nde der Kameras ist zeit- und kostenintensiv, weil an vielen verschiedenen Abst?nden Videoaufzeichnungen erhoben werden müssen. Dies kann man z. T. umgehen, indem man Daten für einen Kameraabstand erhebt, und anschlie?end den Fall anderer - vorzugsweise gr??erer - Abst?nde simuliert, indem man für Objekte derjenigen Kamera, die flussaufw?rts ist, die initiale Reisezeitsch?tzung analytisch oder numerisch mit einer Verkehrssimulation durchführt für den realen Kameraabstand und für einen zweiten virtuellen gewünschten Abstand, und danach die an der Kamera flussabw?rts ermittelten Objekte virtuell verschiebt gem?? der Differenz der gesch?tzten Reisezeiten. Wenn man auf diese Weise z. B. einen sehr gro?en Abstand simuliert, so werden i. allg. weit mehr Objekte im gesch?tzten Reisezeitintervall liegen und somit bei der Ermittlung der Wiedererkennungshypothesen berücksichtigt. Noch Realit?tsn?here Ergebnisse erh?lt man, wenn man die Auswertung für den realen Kameraabstand durchgeführt hat und speichert, welches Fahrzeug welchem entspricht, denn dann kann man eine Verkehrssituation für die Objekte von der Kamera flussabw?rts durchführen und bei der virtuellen Kamera flussabw?rts diese mit den an der realen Kamera flussaufw?rts ermittelten Daten versehen und dann die Wiedererkennung durchführen.

Es kann eine Sch?tzung der zeitabh?ngigen üblichen Reisezeit berechnet werden, indem eine Mittelung über einige zeitlich benachbarte extrahierte Reisezeiten erfolgt, wobei bei Wiedererkennungssystemen mit Fehlern vorzugsweise seltene Ausrei?erwerte unberücksichtigt bleiben. Eine derartige Reisezeit kann auch direkt durch Objekterkennung und Tracking ohne eine Wiedererkennung z.B. für einen Bereich, der nur von einer Kamera erfasst wird, ermittelt werden.

Die Erfolgsrate der Wiedererkennung kann erh?ht werden, indem man zus?tzlich Objektfolgen und/oder Platoons wieder erkennt. Bei Beginn einer Grünphase entsteht i. allg. ein Platoon von Fahrzeugen, dessen Reisezeit beim Eintreffen flussabw?rts - d. h. in Fahrtrichtung im weiteren Verlauf der Stra?e - ermittelt werden kann. Bei Objektfolgen, z. B. 5 hintereinander detektierter Fahrzeuge, kann im flussabw?rts überwachten Bereich diese Folge wieder gesucht werden unter der Annahme, dass die Folge sich kaum ver?ndert hat. Man berechnet dazu ein Gesamtfehlerma? der Parameterwerte der Einzelobjekte der Objektfolge mit gem?? der Reisezeitintervallsch?tzung in Frage kommender Objektfolgen zun?chst unter der Annahme unver?nderter Reihenfolge, dann unter der Annahme, dass ein Objekt fehlt oder eines hinzugekommen ist, wobei man jeweils nur die selbe Anzahl Objekte vergleicht, und optional ob eine einfache Vertauschung in der Reihenfolge vorliegt etc. Die Objektfolge mit niedrigstem Fehlerma?, wobei in das Fehlerma? die Anzahl der berücksichtigten Parameter eingeht, wird als endgültige Wiedererkennungsobjektfolgenhypothese definiert, sofern dessen Fehlerma? einen Schwellenwert unterschreitet und die absolute Differenz zur Folge mit dem zweitniedrigsten Fehlerma? einen weiteren Schwellenwert unterschreitet. Beim Objektfolgenvergleich k?nnen Objekte besser wieder erkannt werden aufgrund der erh?hten Qualit?t der zu vergleichenden gem?? vorliegender Schrift korrigierten Sensorpixelwerte bzw. z.B. HSV-Werte.

Schlie?lich k?nnen die gewonnenen Verkehrsinformationen für eine Optimierung der Verkehrssteuerung eingesetzt werden.

Mit Videodetektoren k?nnen zun?chst üblicherweise in einem bestimmten Ortsbereich vor einer Lichtsignalanlage (LSA) zuverl?ssig Verkehrsdaten gewonnen werden. Diese Informationen erm?glichen ein verbessertes Schalten zwischen Grün- und Rotphase, so dass die Wartezeit der Fahrzeuge vor der LSA pro Umlauf verringert wird. Um die Anzahl der Kameras, die einen Kostenfaktor darstellen, klein zu halten, kann oft nur in einem begrenzten Bereich vor einer LSA eine sichere Verkehrsdatenextraktion erfolgen.

Wenn man z. B. die maximale Aufstelll?nge pro Umlauf zur Steuerung der LSA verwendet, so wird bei starkem Verkehr die maximale Aufstelll?nge oft über der liegen, die von der Kamera sicher erfasst werden kann. Dann ist sinnvoll, dass anstelle der mit Videodetektoren ermittelbaren Zeitlücke für eine Zeitlückensteuerung oder der ermittelbaren maximalen Aufstelll?nge eine pro LSA-Umlauf zeitlich gemittelte Aufstelll?nge oder diejenige, die zu einer definierten Zeit nach Beginn der Rotphase vorliegt, oder die detektierte Fahrzeugdichte etwa zu Beginn der Rotphase, berücksichtigt wird, um eine LSA-Steuerung durchzuführen. Hierdurch kann auch bei sehr dichtem Verkehr auf beiden sich kreuzenden Stra?en, wenn die maximale gemessene Aufstelll?nge bereits immer etwa den gesamten von der Kamera ausgewerteten Bereich umfasst oder die Zeitlücken alle gering sind, noch eine Verbesserung der LSA-Steuerung erzielt werden, indem dann der Stra?e, z.B. deren Fahrzeugdichte etwa zu Beginn der Rotphase h?her ist, im Folgenden eine verl?ngerte Grünzeit gegeben wird, bis zu einem bestimmten maximalen Verh?ltnis von Grün- zu Rotzeit. Zudem kann hierbei die summierte Aufstelll?nge der zuführenden Stra?en unter Berücksichtigung der empirisch ermittelten oder gesch?tzten üblichen Abbiegewahrscheinlichkeiten mitberücksichtigt werden, indem der Stra?e mit h?herer summierter Aufstelll?nge mehr Grünzeit gegeben wird. Für Fahrzeuge, deren geplante Routen einem Routingdienst vorliegen, der sie mit Einwilligung der Nutzer der Verkehrssteuerung zur Verfügung stellt, k?nnen die genauen Routen anstelle der einfachen Abbiegewahrscheinlichkeiten berücksichtigt werden.

Weiter kann eine verbesserte Netz- und/oder LSA-Steuerung erzielt werden, indem die Informationen über ermittelten Abst?nde, Geschwindigkeiten und Beschleunigungen der einzelnen Fahrzeuge vor einer LSA mitberücksichtigt werden. Sch?tzungen für die Zeiten, wann die Fahrzeuge an der Haltelinie ank?men, k?nnen daraus errechnet werden und somit eine verbesserte Grünzeit berechnet werden zur Verringerung der mittleren Reisezeiten, indem insbesondere Grünzeiten um einen kleinen Betrag verl?ngert werden k?nnen, wenn dadurch Fahrzeuge passieren k?nnen und nach Ihnen eine gr??ere Zeitlücke vorhanden ist, und Grünzeiten um einen Betrag verkürzt werden k?nnen, wenn keine Fahrzeuge mehr in einem Bereich vor der LSA sind. Allgemein l?sst sich in einem Netz die mittlere Reisezeit erniedrigen, indem anhand der Daten und anhand des geeigneten Auffüllens mit virtuellen Daten in Bereichen, in denen Daten fehlen, eine Verkehrssimulation mit verschiedenen virtuellen Grünzeiten bis zu einem Zeithorizont durchgeführt wird und die mit geringster mittlerer Reisezeit ausgew?hlt wird. Das Auffüllen kann zu Beginn mit dem Mittelwert aus den mittleren Dichten - sofern vorhanden - und Mittelwert aus den mittleren Flüssen - sofern vorhanden - zwischen je zwei überwachten Bereichen durchgeführt werden, wobei überschüssige bzw. fehlende Fahrzeuge am n?chsten überwachten Ort entfernt bzw. integriert werden, und anschlie?end kann mit den gem?? der Simulation sich ergebenden Werten aufgefüllt werden. Wenn nur mittlere Dichte oder mittlerer Fluss oder mittlere Geschwindigkeit vorhanden sind, k?nnen anhand von Fundamentaldiagrammen des Verkehrs, die vorzugsweise in Abh?ngigkeit von Gr??en einer LSA-Steuerung wie dem Zeit-Offset verwendet werden, die jeweils fehlenden Gr??en festgelegt werden. Zudem kann an einem Detektorort mit der Verkehrssimulation bis zu einem bestimmten Zeitbetrag vorw?rts und rückw?rts für die entsprechenden benachbarten Ortsbereiche simuliert werden, so dass der Verkehr insgesamt dadurch noch besser im System abgebildet wird. Für Fahrzeuge, deren Route mittels eines Routingdienstes, den das Fahrzeug nutzt, dem Verkehrssimulationssystem auf freiwilliger Basis bekannt gemacht worden ist, kann die entsprechende Route in der Simulation berücksichtigt werden; für andere Fahrzeuge wird gem?? empirisch ermittelten oder gesch?tzten üblichen Abbiegewahrscheinlichkeiten eine Route in der Verkehrssimulation berücksichtigt, und/oder mit Hilfe einer synthetischen Bev?lkerung und entsprechender Zielort und Routenwahl. Bei der Auswahl einer bestimmten Grünzeitverteilung wird vorzugsweise neben dem Kriterium m?glichst geringer mittlerer Reisezeit zudem das Kriterium verwendet, dass extrem hohe Reisezeiten vermieden werden, indem insbesondere wenigen detektierten Fahrzeugen, die auf einer kleinen Stra?e vor einer LSA und einer Kreuzung mit einer gro?en Stra?e mit viel Verkehr warten, nicht mehr als eine bestimmte maximale Rotzeit zugemutet wird. Bei einem Objekterkennungssystem mit unsicherer Fahrzeugdetektion wird generell eine Obergrenze der Dauer der Phase Rot verwendet, damit nicht detektierte wartende Fahrzeuge nicht extrem lange Reisezeiten erhalten. Die Verkehrssimulation wird bis zu einem maximalen Zeithorizont durchgeführt und anschlie?end wird die Wahl der geeigneten Verkehrssteuerungssignale durchgeführt und diese werden bis zu einer bestimmten maximalen Zeitdauer realisiert w?hrend die n?chste Verkehrssimulation durchgeführt wird usw.

Die aus der mittels Fahrzeugwiedererkennung berechneten Reisezeiten k?nnen unter zu Hilfenahme von Fundamentaldiagrammen des Verkehrs und/oder mittels Verkehrssimulation verwendet werden, um eine Information über die Anzahl der Fahrzeuge im nicht-überwachten Gebiet und somit über die Fahrzeugdichte zu erzeugen. Damit wird die LSA-Steuerung weiter verbessert, indem vorzugsweise bei Fahrspuren bzw. Stra?en mit h?herer Dichte von Fahrzeugen die Grünphase der entsprechenden Fahrspur bzw. Stra?e vorausschauend erh?ht wird. Die Verkehrsinformationen wie Fahrzeuge und/oder Reisezeiten k?nnen neben der LSA-Steuerung zur Steuerung von Informationssignalanlagen wie z.B. Richtgeschwindigkeitssignalanlagen, Warnhinweissignalanlagen, elektronisch gesteuerten Schildern, Parkraumbelegungshinweisen oder Wechselwegweiser verwendet werden. Die Hinweise k?nnen auch direkt an XFCD-Fahrzeuge und/oder tragbare Systeme wie PDAs mit GPS o. ?. übermittelt werden. Wenn der Verkehrsfluss sich im für die Entstehung von Staus kritischen Bereich von Fundamentaldiagrammen des Verkehrs befindet, erniedrigt man vorzugsweise die Richtgeschwindigkeit zur Vorbeugung von Staus. Bei detektierten Staus kann im Bereich flussaufw?rts zudem davor gewarnt werden, indem die Informationen dorthin übermittelt und angezeigt werden. XFCD-Fahrzeugen kann zudem das detektierte Ende/der detektierte Anfang eines Staus und für Fahrzeuge im Stau die voraussichtliche Dauer bis zum Ende des Staus mitgeteilt werden. Informationen von XFCD-Fahrzeugen, die ein Park-and-Ride-System nutzen m?chten, k?nnen das System über ihre voraussichtliche Ankunftszeit und Zielort informieren. Das System kann die Abfahrt eines ?ffentlichen Bef?rderungsmittels gem?? der Menge der einlaufenden Informationen geeignet w?hlen. Vorzugsweise wird nicht immer nach Plan abgefahren, sondern etwas sp?ter, wenn gem?? diesen Informationen dadurch noch ein Kunde mitgenommen werden kann. Das System kann seinerseits die aktuell geplante Abfahrtszeit den Kunden ins XFCD-Fahrzeug mitteilen. Derartiges kann ebenfalls zwischen Benutzern ?ffentlicher Transportmittel und Personen mit entsprechenden tragbaren Systemen wie PDAs mit GPS o. ?. durchgeführt werden.

Die Verkehrs- und Reisezeitinformationen k?nnen Datenbanken und einem dynamischen Routingdienst zur Verfügung gestellt werden, so dass Nutzern eines solchen Dienstes verbesserte aktuelle Routenempfehlungen gegeben werden, indem vorzugsweise eine Route mit niedriger prognostizierter Reisezeit genannt wird.

Die Routingsoftware kann in einer oder mehreren Zentrale(n) und/oder im Fahrzeug selbst enthalten sein. In letzterem Falle kann die Reisezeitinformation und/oder weitere Information auch direkt vom Wiedererkennungssystem lokal an die Fahrzeuge mit entsprechender Empfangsvorrichtung gesendet werden. Diese Fahrzeuge übertragen die Informationen an weitere Verkehrssteuerungssysteme und/oder an im Stra?ennetz benachbarte Fahrzeuge und erm?glichen somit insgesamt ein Routing, das optional ohne Zentrale(n) arbeiten kann.

Die Reisezeitinformationen der einzelnen Objekte, die Reisezeiten aufzeichnen k?nnen wie z. B. FCD- oder XFCD-Fahrzeuge oder Personen mit entsprechenden tragbaren Systemen wie PDAs mit GPS o. ?., k?nnen von diesen und/oder vom zentralen Routingdienst an ein lokales und/oder zentrales LSA-Steuerungssystem gesendet werden, das diese Informationen nutzen kann, um eine verbesserte LSA-Steuerung durchführen zu k?nnen, entweder als Erg?nzung zu optisch und/oder mit Induktionsschleifen zur Fahrzeugerkennung erhobenen Daten und/oder an LSAs, für die keine optisch und/oder mit Induktionsschleifen erhobenen Daten zur Verfügung stehen. Im Falle lokaler Netzsteuerungen kann insbesondere eine lokal stark erh?hte Reisezeit an die Netzsteuerungsanlagen wie LSA, die an den zuführenden Stra?en vorhanden sind, weitergegeben werden, um dort den Zufluss in das verstopfte Segment durch verkürzte Grünzeiten zu reduzieren.

Informationen z. B. von XFCD, die Rückschlüsse über die Witterung etc. enthalten, wie z. B. über Sichtweite, Glatteis oder über starken Regen, k?nnen an die Verkehrssteuerungs-/Routingsysteme und - oder von dort - an die Fahrzeugerkennungssoftware weitergeleitet werden. Die Informationen k?nnen berücksichtigt werden zur verbesserten Wahl von Parametern des Erkennungs- und Wiedererkennungsalgorithmus, um die Ausgabeergebnisse weiter zu verbessern.

Ein dynamisches Re-Routing mit Hilfe der aktuellen Reisezeitinformationen kann durchgeführt werden. Z. B. kann durch einen St?rfall die Reisezeit auf einem Segment pl?tzlich stark zunehmen und dazu führen, dass eine Neuberechnung der günstigsten Route für andere Nutzer eine Umleitung um das Segment mit dem St?rfall als sinnvoll ergibt. Dies kann dem Nutzer mitgeteilt werden und/oder direkt beim Routing berücksichtigt werden.

Die Reisezeitinformationen k?nnen in einer Verkehrssteuerung, die eine Lastabwurfstrategie beinhaltet, berücksichtigt werden. Eine ermittelte pl?tzlich stark erh?hte Reisezeit auf einem Segment wird verwendet, um die LSA in dem umliegenden Bereich so zu steuern, dass der Zufluss in das Segment bzw. in die darauf zuführenden Segmente sinkt und/oder eine nahe Umleitung mit Bevorzugung gr??erer Stra?en verl?ngerte Grünzeiten erh?lt. Mit einer Verkehrssimulation k?nnen zeitabh?ngige Verkehrsprognosen berechnet werden für verschiedene ?nderungen der LSA-Steuerung und eine günstige LSA-Steuerung ausgew?hlt werden.

Die Verkehrs- und Reisezeitinformationen k?nnen z. B. mit einer Verkehrssimulation für eine Korridorsteuerung, z.B. einer grünen Welle zwischen zwei Punkten einer Stadt, eingesetzt werden. Sie erm?glichen es unter Nutzung von Informationen eines Routingdienstes und/oder einer Verkehrsdatenbank, in Abh?ngigkeit vom Verkehr eine Fahrtrichtung zu bevorzugen, eine grüne Welle verbessert an die jeweilige Verkehrsdichte und/oder an Fahrzeuge mit Sonderrechten anzupassen, und/oder Lastabwurf bei zu hoher Reisezeit auf einem Segment zu bewirken.

Die genannten Verkehrssteuerungsinformationen k?nnen zur Verbesserung des dynamischen Re-Routings verwendet werden. In einer Verkehrssimulation mit der geplanten Verkehrssteuerung kann berücksichtigt und berechnet werden, dass Staus sich i. allg. mit bestimmter Geschwindigkeit flussaufw?rts bewegen und somit einige Zeit sp?ter andere Segmente blockiert sein k?nnen. Wenn ein Nutzer des dynamischen Re-Routings gem?? einer zun?chst berechneten Route zu einem solchen zukünftigen Zeitpunkt in die entsprechenden blockierten Segmente fahren würde, kann vorher das Re-Routing erfolgen und dieses verhindern.

Für Gruppen von Fahrzeugen - z. B. einer Touristengruppe - kann beim dynamischen Re-Routing berücksichtigt werden, dass die Gruppe m?glichst gar nicht oder nicht mehr als einen bestimmten Abstand getrennt werden soll. Mittels Location Based Services kann der jeweilige Ort der übrigen Fahrzeuge bestimmt werden und ein dementsprechendes Re-Routing für alle Teilnehmer der Gruppe erfolgen.

Verkehrssteuerungssysteme wie LSA-Steuerungssysteme k?nnen den Fahrzeugen mit entsprechender Empfangsvorrichtung Informationen, z.B. einem wartenden Fahrzeug über die verbleibende Dauer der Rotphase, Staus, St?rf?lle, Informationen über Ziele, freien Parkraum und/oder Werbung mitteilen, und vom Fahrzeug aus k?nnen mittels Funk Parkraum reserviert/bezahlt und/oder Waren/Dienstleistungen gekauft werden, die dadurch bei Ankunft am Ziel bereits bereit zur Abholung/Nutzung stehen k?nnen.

Fahrzeuge mit Sonderrechten - wie z. B. ein Rettungsfahrzeug im Einsatz - k?nnen LSA-Steuerungssystemen Informationen senden, dass sie an eine LSA heranfahren bzgl. welchen Zielort sie haben und welche Route sie verwenden m?chten. Solche Informationen k?nnen vom LSA-Steuerungssystem zur bevorzugten Freigabe der Stra?e für das Fahrzeug verwendet werden, was die Sicherheit der Verkehrsteilnehmer erh?ht und die Reisezeit des Fahrzeugs verringert. Bei bekannter gewünschter Route kann mittels Verkehrsimulation verschiedener Szenarien eine geeignete Steuerung mit geringer Reisezeit für das Fahrzeug ermittelt werden.

Mit allen elektronischen Informationssystemen an der Stra?e und Informationen an XFCD-Fahrzeuge kann eine konzertierte Verkehrssteuerung zusammen u. a. mit den LSA-Steuerungen und Geschwindigkeitsbegrenzungssignalanlagen durchgeführt werden, vorzugsweise unter zu Hilfenahme der Ergebnisse einer Verkehrssimulation. In Bereichen flussaufw?rts von detektierten Staus kann der Zufluss in den Stau verringert werden durch entsprechend kürzere Grünzeiten und verringerte zul?ssige Fahrzeuggeschwindigkeiten und erh?hte Grünzeiten für eine Umleitungsroute zusammen mit erh?hten zul?ssigen Fahrzeuggeschwindigkeiten.

Mittels der beschriebenen Verkehrssimulation in Form einer stochastischen Simulation kann vorab simuliert werden, ob in einem Abschnitt ein Stau zu erwarten ist. Da im Verkehr z. T. recht zuf?llige Reaktionen der Fahrer relevant sind, ist durch eine einmalige Simulation i. allg. keine Absch?tzung einer Stauwahrscheinlichkeit m?glich. Stattdessen kann eine Monte-Carlo-Simulation durchgeführt werden, bei der aus mehreren Durchl?ufen der stochastischen Verkehrssimulation sich eine Stauwahrscheinlichkeit sch?tzen l?sst und diese Information zur weiteren Verbesserung der Steuerung der Signalsysteme eingesetzt wird.

Nachdem durch einen Nutzer eines Navigationssystems eine Route gew?hlt wurde, sofern der Nutzer einverstanden ist, kann automatisch immer - oder andernfalls kann der Nutzer dies von Fall zu Fall entscheiden - die Route an ein Verkehrssteuerungs-/Routingsystem übermittelt werden. Letzteres System kann diese Route in der Verkehrssimulation berücksichtigen zur Erstellung einer verbesserten Verkehrsprognose und Verkehrssteuerung/-routing/-re-routing.

Die durch die Fahrzeugwiedererkennung ermittelten Reisezeitinformationen und/oder durch Verkehrssimulation ermittelten Reisezeitinformationen k?nnen einem elektronischen Mautsystem zur Verfügung gestellt werden. Dieses kann daraus den aktuell gültigen Preis für die Benutzung einer Strecke berechnen, indem es vorzugsweise die Benutzung von Abschnitten mit überh?hter Reisezeit entsprechend verteuert.

Das Routingsystem, dass auf den beschriebenen Verkehrsdaten beruht, kann erweitert werden, indem, wenn bei einem Unfall und/oder Notfall irgendetwas ben?tigt wird von einem Unfallopfer oder durch Unfallhelfer eines Rettungsfahrzeugs mittels Funk den Routingdiensten und/oder anderen XFCD-Fahrzeugen mitgeteilt wird, was wo ben?tigt wird. Wenn ein XFCD-Fahrzeug in der N?he das ben?tigte hat oder eine Person aushelfen kann, besteht die M?glichkeit, auszuhelfen. Kolonnen k?nnen den Routingdiensten und/oder anderen XFCD-Fahrzeugen Auskunft geben über ihre L?nge, maximale Geschwindigkeit und Fahrtroute und somit über die Dauer, die man hinter ihnen bleiben muss, wenn man nicht auf eine andere Route ausweicht. Wenn die Kolonne es dem Routingdienst mitteilt, kann dies integriert werden mit den übrigen Reisezeitinformationen in einer Verkehrssimulation und automatisch beim dynamischen Routing und Re-Routing berücksichtigt werden. Ein Sonderfahrzeug kann Informationen, z.B. wo es sich befindet, welches Ziel/Route es hat, wie schnell und über welche Stra?en es fahren darf, welches Gewicht, L?nge, Breite, H?he, Ladungsart und -menge und welche Achsenzahl es hat und wo diese Achsen sich befinden, an Routingdienste und/oder XFCD-Fahrzeuge senden. Ebenso k?nnen XFCD-Fahrzeuge zeitlich konstante und/oder zeitlich ver?nderliche Fahrzeugeigenschaften und Fahrereigenschaften (Schnellfahrer/Langsamfahrer) dem Routingdienst mitteilen. Die Informationen k?nnen z.B. vom Routingdienst in einer Verkehrssimulation berücksichtigt werden, wodurch eine bessere Verkehrsprognose und somit ein besseres Routing m?glich werden. Für die XFCD-Fahrzeuge k?nnen dadurch bessere Routen gew?hlt werden - dies kann automatisch durch das System erfolgen, indem z.B. Routen ausgeschlossen werden, bei denen sich ein Sonderfahrzeug voraussichtlich zu einem Zeitpunkt auf dem selben Stra?enabschnitt wie das XFCD-Fahrzeug gem?? der geplanten Route befindet. Verschiedene Baufahrzeuge mit verschiedenen Materialien etc. sowie die am Bau beteiligten Personen k?nnen sich via Funk direkt oder via Location Based Services oder über eine Zentrale automatisch informieren, wo sie sich befinden und wann sie gem?? Routenplaner voraussichtlich am Zielort ankommen. Wenn ein Ziel voraussichtlich schneller oder sp?ter erreicht wird als vorgesehen, wird dies automatisch mitgeteilt, so dass die danach ben?tigten Fahrzeuge entsprechend früher oder sp?ter starten k?nnen und in letzterem Falle andere Auftragsarbeiten zwischendurch erledigen k?nnen. Hierdurch kann die Dauer einer Arbeit reduziert werden, was Kosten spart. Eine Flotte ?ffentlicher Verkehrsmittel, z.B. eine Busflotte, kann so erfahren, wo die anderen insbesondere die benachbarten Fahrzeuge sich befinden. Somit kann, wenn sich zwei Fahrzeuge der Flotte dicht hintereinander befinden, das erste an einer Haltestelle vorbeifahren, weil direkt danach ein zweites kommt. Dadurch erh?ht sich der Zeitabstand der Fahrzeuge wieder, was insbesondere sinnvoll ist, wenn das erste zu sp?t ist. Denn, wenn das erste die Personen an der Haltestelle aufn?hme, würde die Versp?tung noch gr??er werden, und das zweite würde noch n?her auf das erste auffahren, weil das zweite an der Haltestelle i.allg. dann keinen Fahrgast mehr vorf?nde und gegebenenfalls durch fahren k?nnte. Dann ist dieses Verfahren, Personen nicht aufzunehmen, sinnvoll zur Verringerung der mittleren Wartezeiten der Personen. Personen mit PDAs mit GPS o. ?. in ?ffentlichen Fahrzeugen, die umsteigen m?chten, k?nnen dies via PDAs mit GPS einem System an der Haltestelle und/oder in den ?ffentlichen Fahrzeugen mitteilen, die es den benachbarten ?ffentlichen Fahrzeugen mitteilen k?nnen, so dass letztere n?tigenfalls etwas warten k?nnen, um die Person umsteigen zu lassen. Bei Unf?llen und Blockaden einer Stra?e, die auf einer Buslinie l?ge, kann durch einen Routingdienst einem Bus eine schnellere Ausweichroute mitgeteilt werden. Sofern in der N?he des Unfalls eine durch den Unfall unerreichbare Haltestelle l?ge, und dort eine elektronische Anzeige ist, kann dort angegeben werden, dass aufgrund des St?rfalls diese Haltestelle nicht angefahren werden kann und wo die n?chsten Haltestellen sich befinden. Bei Gro?veranstaltungen und im Katastrophenmanagement k?nnen Informationen, wo, wann und - soweit bekannt - wie lange sie stattfinden, Routingdiensten übermittelt werden. Dadurch k?nnen diese Raum-Zeit-Bereiche bei der Routensuche für Nicht-Teilnehmer bzw. Unbeteiligte ausgespart werden, was ein schnelleres und besseres Routing bewirkt. Für Teilnehmer einer Gro?veranstaltung k?nnen automatisch via PDA mit GPS o. ?. Informationen durch überwachungssysteme, z.B. basierend auf Kameras im sichtbaren und/oder infraroten Bereich, gesendet werden, welche die Personendichte in Bereichen der Veranstaltung ermitteln, gesendet werden. Anhand der Informationen k?nnen Personen vermeiden, sich zu Bereichen der Veranstaltung zu bewegen, die bereits überfüllt sind und Ausweichrichtungen und -Routen geringer prognostizierter Dichte k?nnen angegeben werden, wenn eine kritische Personendichte überschritten wird. Gruppen von Personen, die getrennt werden k?nnen, wenn die Personen nicht in der Lage oder nicht willens sind, ihren Ort mitzuteilen, sich wieder finden mittels Location Based Services und/oder mittels mit GPS o. ?. ausgestatteten PDAs und sich den Ort des jeweils anderen anzeigen lassen.

Die genannten Verfahren bzw. Vorrichtungen zur Verkehrssteuerung k?nnen auch auf mit anderen Verfahren erhobenen Verkehrsdaten basierend durchgeführt werden.

Die Erfindung wird nachfolgend anhand eines bevorzugten

Ausführungsbeispiels n?her erl?utert. Die Figuren zeigen:

  • Fig. 1 schematisch eine Verkehrssituation, wobei ein Bereich einer

    Fahrspur durch ein Objekt in eine Kamera reflektiert wird, dessen Sensorpixelwerte direkt durch ein Kamera-Rechner-System

    erfassbar sind und

  • Fig. 2 schematisch eine Verkehrssituation, wobei ein Bereich der

    Fahrspur durch das Objekt in die Kamera reflektiert wird, dessen Sensorpixelwerte nicht direkt durch das Kamera-Rechner-System

    erfassbar sind.

Fig. 1 zeigt schematisch ein Kamera-Rechner-System 1, durch welches ein Objekt 2 erfasst wird, wobei das Objekt 2 ein PKW ist, welcher sich auf einer Fahrspur 3 befindet. Das Kamera-Rechner-System 1 dient dabei alleine oder in Kooperation mit weiteren Kamera-Rechner-Systemen zur überwachung eines Stra?enverlaufs, einer Kreuzung oder einer gr??eren Region.

Das Kamera-Rechner-System 1 umfasst eine Kamera 10 und eine Recheneinheit 11, durch welche Daten der Kamera 10 verarbeitet werden. Die Kamera 10 und die Recheneinheit 11 k?nnen dabei als eine Einheit ausgebildet werden oder als unterschiedliche Einheiten, welche an unterschiedlichen Orten angebracht sind und drahtlos oder über eine geeignete Leitung zum übertragen von Daten wirkverbunden sind. Anstelle einer Kamera 10 kann ein Verbund mehrerer Kameras Daten an die Rechnereinheit 11 liefern, z.B. eine Farbmatrixkamera und eine IR-Kamera. Eine IR-Kamera ist insbesondere bei Nebel bzw. nachts vorteilhaft. Die Kamera 10 ist an einer geeigneten Stelle angebracht, beispielsweise an einer H?userwand, an einer Stra?enkreuzung oder an einem Masten. Vorzugsweise wird die Kamera 10 in einer H?he von mindestens ca. 8m und mit einem Winkel a gegenüber der Vertikalen angebracht, der kleiner als etwa 80 Grad ist - vorzugsweise wesentlich kleiner. Durch einen kleinen Winkel a lassen sich Probleme einer gegenseitigen partiellen Verdeckung der durch die Kamera 10 beobachteten Objekte reduzieren bzw. vermeiden.

Für eine überwachung müssen Objekte bei einem Eintritt in den überwachten Stra?enverlauf und/oder die überwachte Kreuzung erkannt werden. Werden erfasste Objekte zus?tzlich durch das Kamera-Rechner-System 1 klassifiziert und/oder auf andere Weise geeignet verarbeitet, so k?nnen klassifizierte Objektdaten an ein oder mehrere benachbarte Kamera-Rechner-System(e) weitergeleitet werden und dienen diesem zur schnellen Wiedererkennung. Die Wiedererkennung von Objekten, insbesondere eine Wiedererkennung ohne Erfassung des Kennzeichens, erlaubt eine anonymisierte Verkehrsbeobachtung. Für eine Wiedererkennung von Objekten sind verschiedene, einem Objekt zugeordnete Attribute zu überprüfen. Denkbare Attribute sind beispielsweise Breitenabmessungen, L?ngenabmessungen, zeitlich hochaufgel?ste Daten aus Induktionsschleifen zur Fahrzeugerkennung sowie Farbdatenwerte. Aus extrahierten Abmessungen und z.B. aus detektierten Ecken des Objekts l?sst sich das Objekt einem 3-d-Drahtgittermodell zuordnen, d.h. ein Fahrzeugprototyp l?sst sich ermitteln. Für einen Vergleich von einer Objekt-Hypothese mit einem Objekt oder einer anderen Objekt-Hypothese l?sst sich mindestens eine Fehlerfunktion formulieren, welche mindestens ein Attribut berücksichtigt. überschreitet eine Fehlerfunktion einen vorgegebenen Schwellenwert, der insbesondere von der Anzahl der berücksichtigten Parameter abh?ngt, so wird die Hypothese verworfen, es handele sich um dasselbe Objekt. Eine N?he zum Schwellenwert gibt ein Ma? für die Unsicherheit der Objekt-Hypothese an. Zum Vergleich einer Objekthypothese mit anderen Objekten sind so viele Objekte zuzulassen, wie sie gem?? üblichen Reisezeiten zwischen den Orten in Frage kommen. Verglichen werden vorzugsweise nur Objekthypothesen von Orten, die im Stra?enverlauf aufeinander folgen.

Für den Fall, dass z.B. zwei sehr ?hnliche Fahrzeuge mit kurzem Zeitabstand und selbem Routenabschnitt nicht unterschieden werden k?nnen, aber als Objektmenge an der n?chsten Kreuzung wieder erkannt werden, l?sst sich der Mittelwert ihrer Reisezeiten ermitteln, denn dieser h?ngt nicht davon ab, ob sie ihre Reihenfolge ?ndern. Falls man zus?tzlich eine Sch?tzung über ihre Routen aufstellen m?chte, ist ein einfacher Ansatz die Annahme, dass die beiden Fahrzeuge ihre Reihenfolge nicht ver?ndert haben, weil dies der h?ufigere Fall ist.

In einem bevorzugten Verfahren zur Ermittlung von Objektdaten wird zun?chst unter Verwendung von Passpunkten eine N?herung eines Abbildes der Fahrbahnfl?che ermittelt, wobei Passpunkte beispielsweise unter Verwendung von GPS-Daten o. ?. bestimmt werden. Durch bekannte Verfahren wird aus dem Abbild der Fahrbahnfl?che eine erste N?herung für ein Abbild eines Objekts 2 oder mehrerer Objekte ermittelt. Für Prototypen von Objekten, beispielsweise bestimmte PKW-Typen, LKW-Typen etc., liegen vorzugsweise Modelle im Kamera-Rechner-System 1 vor. Das Modell ist beispielsweise ein 3D-Drahtgittermodell.

Anhand des erfassten Abbildes des Objekts 2 wird

mindestens ein geeignetes Modell gew?hlt und an extrahierte Merkmale des Abbildes angepasst, vgl. "Untersuchungen zu einer systematischen Leistungssteigerung in der modellbasierten Bildfolgenauswertung" (Shaker Verlag, Aachen 2001). Andere Methoden zur Bestimmung einer Hypothese des Objekts 2 sind denkbar.

Ein Attribut oder Merkmal für eine Klassifizierung eines Objekts 2 sind dessen Sensorpixelwerte. Andere Merkmale sind beispielsweise dessen Ortsvektor, Geschwindigkeitsvektor, Beschleunigungsvektor, Fahrzeug-Prototyp, Gr??enabmessungen, Fahrspur mit Richtung, Zeitpunkt etc.

Sensorpixelwerte werden oft als RGB-Werte erfasst. RGB-Werte sind n?herungsweise in Abh?ngigkeit von einer Intensit?tsdichte I(f) des Lichtes bzgl. betrachteter Frequenzen f über einem Zeitintegrationsfenster, d.h.

etwa der Belichtungszeit, beschreibbar:R=R(I(f)), G= G(I(f)), B=B(I(f)).

Für eine bessere Lesbarkeit werden Indizes für Pixelnummer, Zeitpunkt etc. ausgelassen.

Die Intensit?tsdichte I(f) weist Standardabweichungen auf, welche unterschiedlichste Ursachen haben, beispielsweise ein stochastisches Auftreffen von Photonen auf einen Sensor der Kamera 10. Die Intensit?tsdichte über einem Pixel ist auch eine Funktion des Ortes. Derartige Einflüsse sind jedoch vernachl?ssigbar, wenn die Sensorpixelwerte über mehrere Pixel n?herungsweise konstant sind. Der Ausschnitt des Abbildes, in welchem die Sensorpixelwerte berücksichtigt werden, ist daher wie oben beschrieben geeignet zu w?hlen, n?mlich etwa mittig von Fahrzeugfl?chen wie z.B. der Dachfl?che. Zahlreiche Faktoren k?nnen zu Abweichungen führen, darunter Nebel, Niederschlag, Tropfen auf dem Objektiv, beschlagenes Objektiv, Blooming, Beugung, Blendendurchmesser, diverse Aberrationen etc. Diese k?nnen in erster N?herung vernachl?ssigt werden, alternativ jedoch auch erkannt werden und dem System gemeldet und berücksichtigt werden.

Sensorpixelwerte des Objekts 2 werden vorzugsweise an einer Seitenfl?che 21 ermittelt. Alternativ oder kumulativ k?nnen Sensorpixelwerte am Fahrzeugdach 22 ermittelt werden.

Anhand der Hypothese des Objekts 2, beispielsweise unter Verwendung des 3D-Drahtgittermodells, ist eine Hypothese für einen Bereich eines Abbildes mindestens einer Seitenfl?che 21 und/oder Dachfl?che 22 im Kamerabild aufstellbar sowie eine Hypothese für einen mittleren Bereich einer unteren H?lfte der Seitenfl?che 21.

Vorzugsweise werden Werte eines ausgew?hlten Bereichs in der N?he der Mitte der Fl?che

zu einem gemittelten Sensorpixelwert verknüpft.

Sensorpixelwerte h?ngen auch davon ab, wie hoch der Reflexionsanteil der Fl?che ist. Der

Reflexionsanteil w?chst mit abnehmendem Projektionswinkel b, wobei der Projektionswinkel b definiert ist als der Winkel, welcher 90 Grad minus dem Winkel ist, der von einem 3D-Vektor 12 von der Mitte der Hypothese der Fl?che 21 bzw. 22 zur Kamera 10 und einem 3D-Vektor, der senkrecht auf der Fl?che steht und aus dem Objekt herauszeigt, eingeschlossen wird.

Im in Fig. 1 dargestellten Beispiel wird ein Bereich 31 der Fahrspur 3 von der Seitenfl?che 21 in die Kamera 10 reflektiert. Für eine Berücksichtigung dieses Reflexionsanteils wird die Lage der Hypothese des Abbilds des Bereichs 31 im Kamerabild bestimmt und der zugeh?rige Sensorpixelwert ermittelt. Der üblich zu erwartende Reflexionsanteil im erfassten Sensorpixelwert der Seitenfl?che 21 wird aus dem Sensorpixelwert des reflektierten Bereichs 31 abgeleitet. Anschlie?end wird damit der Sensorpixelwert der Seitenfl?che 21 korrigiert um den Reflexionsanteil ermittelt.

Im Falle der Dachfl?che werden, wie oben beschrieben, hierzu die Sensorpixelwerte der Hypothese des entsprechenden Himmelsbereichs verwendet.

Erfindungsgem?? wird eine Funktion I_ges(f), welche die Gesamtintensit?t auf einem Sensor darstellt, auf den die Hypothese eines Bereichs einer Fahrzeugfl?che abgebildet wird, aufgespalten in eine Funktion I_refl(f) des Spiegelungsreflexionsanteils, für den n?herungsweise gilt, dass der Einfallswinkel gleich dem Ausfallswinkel ist, und eine Funktion I_O(f) für das vom Objekt 2 kommende Licht ohne diesen Reflexionsanteil:I_ges(f) = Abb( I_refl(f), I_O(f)).

Bei klassischen inkoh?renten monochromatischen Quellen mit nicht zu gleichm??igen Raumzeit-Abst?nden werden Intensit?ten im Mittel n?herungsweise addiert. Damit gilt n?herungsweiseI_ges(f) = I_refl(f) + I_O(f).

Um N?herungsfehler zu verringern, kann zus?tzlich eine übliche Polarisationsverteilung berücksichtigt werden. Dabei kann n?herungsweise die bekannte übliche Vorzugsrichtung der Polarisation des Himmelslichts sowie dessen Polarisationsgrad insbesondere in Abh?ngigkeit vom Sonnenstand, die bekannte vorzugsweise Polarisation des von PKW-Fl?chen 21 bzw. 22 reflektierten Lichts sowie - falls verwendet - die Wirkung eines Polarisationsfilters berücksichtigt werden.

Die Intensit?tsdichten I_refl(f) und I_O(f) sind durch geeignete N?herungsfunktionen I_refl_N(f, a1,...,aM) und I_O_N(f, b1,...,bM) über dem betrachteten Frequenzbereich beschreibbar. Der Zusatz ,N' kennzeichnet im vorliegenden Text N?herungsfunktionen. Für RGB-Daten kann z.B. M=3 gew?hlt werden, d.h. aM=a3 und bM=b3. Als N?herungsfunktionen sind beispielsweise Gau?funktionen verwendbar, welche durch drei Parameter, z.B. H?he a1, b1, Breite a2, b2 und Mittelwert a3, b3, beschrieben werden. Ergebnisse lassen sich weiter optimieren, indem z.B. statt einer Gau?funktion eine Summe zweier Gau?funktionen gleicher H?he und Breite verwendet wird, deren Maxima beispielsweise viermal ihre Standardabweichung auseinander liegen. Für spezielle F?lle, in denen R und B gro?e Werte aufweisen und G einen kleineren, kann die Verteilung besser durch eine derartige Funktion approximiert werden. Die optimale Wahl der Parameter ist nicht immer eindeutig. Es kann festgelegt werden, welche Wahl der Parameter aus den wenigen m?glichen Ergebnissen jeweils in welchen RGB-Bereichen verwendet wird. Alternativ kann z.B. festgelegt werden, dass diese komplexeren oder geeignete andere Funktionen nur im Falle, dass R>G<B gilt, verwendet werden.

Damit gilt:I_ges_N(f,a1,a2,a3,b1,b2,b3) = Abb(I_refl_N(f,a1,a2,a3), I_O N(f,b1,b2,b3)). bzw. n?herungsweiseI_ges_N(f,a1,a2,a3,b1,b2,b3) = I_refl_N(f,a1,a2,a3) + I_O_N(f,b1,b2,b3).

Liegen RGB-Werte R_rB, G_rB, B_rB für den reflektierten Bereich 31 vor, so lassen sich daraus Parameterwerte a1,...,aM der N?herungsfunktion I_refl_N(f,a1,...,aM) n?herungsweise bestimmen.

Hierfür ist zun?chst eine Ver?nderung der Farbdatenwerte R_rB, G_rB, B_rB aufgrund der Reflexion zu ermitteln. Vorzugsweise wird dabei Wissen über einen üblichen Reflexionsanteil bei gegebenem Blickwinkel und/oder bei Mittelung über übliche Lacke, übliche Verschmutzungsgrade etc. berücksichtigt. Eine Berücksichtigung erfolgt n?herungsweise durch eine Abbildung RefRef (I_refl_N(f, a1, a2, a3)) = I_refl_N(f, a1, a2, a3) / Refl, wobei Refl mindestens abh?ngt von dem Projektionswinkel b, unter dem ein reflektiertes Abbild des analysierten Bereichs 31 oder Teilen davon durch die Kamera 10 auf der Seitenfl?che 21 des Objekts 2 erwartungsgem?? erfasst wird.

Des Weiteren kann eine Richtungsabh?ngigkeit der Sensorpixelwerte des reflektierten Bereichs durch ein Computergrafikmodell berücksichtigt werden.

In der Abbildung Ref kann eine leichte übliche Konvexit?t einer Fl?che 21 in vertikaler Richtung bzw. 22 in beiden horizontalen Richtungen angesetzt und berücksichtigt werden, indem man ansetzt, dass ein etwas gr??erer Bereich als der eingezeichnete Bereich 31 über die Fl?che in die Kamera 10 reflektiert wird. Ferner kann durch Refl berücksichtigt werden, dass verschiedene Frequenzen üblich verschieden stark reflektiert werden.

Es kann weiter eine Abh?ngigkeit der Reflexion von der Polarisation des Lichtes berücksichtigt werden unter Berücksichtigung einer Mittelung von Reflexionsformeln für übliche Lacke. Au?erdem kann über übliche Mikrostrukturierungen gemittelt werden.

Es ist auch denkbar, die Reflexionseigenschaften an erfasste Witterungszust?nde anzupassen, so ist beispielsweise im Herbst oder bei Schneematsch mit einer st?rkeren Verschmutzung des erfassten Objekts zu rechnen. Eine n?herungsweise Anpassung erfolgt beispielsweise über einen entsprechenden Vorfaktor.

Bei der Ermittlung des Reflexionsanteils der Farbdatenwerte ist es vorteilhaft, wenn es sich bei dem in der Fl?che reflektierten Bereich 31 um eine trockene Stra?e handelt. Derartige Bereiche weisen selbst üblicherweise nur einen geringen Reflexionsanteil auf, so dass ihre Farbdatenwerte vergleichsweise unverf?lscht sind. Reflexionsanteile von Stra?en nehmen im Regelfall nur bei Eisbildung und/oder bei starker N?sse und Pfützenbildung kritische Werte an.

Dabei handelt es sich um witterungsbedingte Sonderf?lle, welche eine vergleichsweise untergeordnete Rolle spielen. Sie k?nnen in erster N?herung vernachl?ssigt werden oder durch bekannte technische Systeme erkannt werden und die Berechnung des Reflexionsanteils gegebenenfalls ausgesetzt werden. Weitere Ph?nomene wie beispielsweise Luftreflexionen sind im Allgemeinen bei nicht zu flachem Blickwinkel der Kamera vernachl?ssigbar.

Die Bestimmung der Parameter der N?herungsfunktion I_refl_N erfolgt vorzugsweise mittels bekannter Verfahren zur Bestimmung des globalen Minimums oder mindestens eines geeigneten lokalen Minimums einer Fehlerfunktion im betrachten Bereich. Ein Beispiel für eine Fehlerfunktion istEa (a1, a2, a3) = [R_rB - R( Ref (I_refl_N(f, a1, a2, a3) ) ) ]2 + [G_rB - G( Ref (I_refl_N(f, a1, a2, a3) ) ) ]2 + [B_rB - B( Ref ( I_refl_N(f, a1, a2, a3) ) ) ]2 .

Bei der Bestimmung eines Minimums sind die Randbedingungen der Parameter wie z.B. nicht-negative H?he der Gau?funktion zu berücksichtigen. Wenn die Abbildungen R, G und B in guter N?herung als Formeln vorliegen, k?nnen diese hierbei direkt verwendet werden. Andernfalls k?nnen die Werte R(...), G(...) und B(...) n?herungsweise z.B. nach Berechnung der zu Ref(I_refl_N) bzgl. einer Funktionennorm n?chsten vorab gespeicherten Stützfunktionen, für die R, G und B gespeichert sind, unter Verwendung z.B. von Interpolationen ermittelt werden. Zur Suche des globalen Minimums bzw. eines m?glichst kleinen Wertes von Ea k?nnen z.B. Gradientenabstiegsverfahren eingesetzt werden. Dies liefert Zahlenwerte für a1, a2 und a3.

Unter Verwendung der vorliegenden RGB-Werte R_ges, G_ges, B_ges zur unbekannten Intensit?tsdichte I_ges(f) werden die noch nicht bestimmten Parameter b1,..., b3 der Funktion I_O_N(f) n?herungsweise ermittelt. Die Ermittlung erfolgt beispielsweise durch ein Gradientenabstiegsverfahren angewendet auf eine Fehlerfunktion oder ein Iterationsverfahren. Eine geeignete Fehlerfunktion hierfür ist beispielsweise:Eb (b1, b2, b3) = [R_ges - R( Abb (I_O_N(f, b1, b2, b3), I_refl_N(f) ) ) ]2 + [G_ges - G( Abb (I_O_N(f, b1, b2, b3), I_refl_N(f) ) ) ]2 + [B_ges - B( Abb (I_O_N(f, b1, b2, b3), I_refl_N(f) ) ) ]2 bzw. mit der N?herung I_ges_N(f) = I_O_N(f) + I_refl_N(f)Eb (b1, b2, b3) = [R_ges - R( I_O_N(f, b1, b2, b3) + I_refl_N(f) ) ]2 + [G_ges - G( I_O_N(f, b1, b2, b3) + I_refl_N(f) ) ]2 + [B_ges - B( I_O_N(f, b1, b2, b3) + I_refl_N(f) ) ]2 wiederum bei Beachtung der Randbedingungen für die Parameter wie nichtnegative

H?he der Gau?funktion etc.. Aus dem Minimierungsverfahren ergeben

sich Zahlenwerte für b1, b2 und b3.

Die ermittelten Parameterwerte a1,...,a3, b1,...,b3 k?nnen als ein Beitrag zur Wiedererkennung von Objekten an anderen Orten zu anderen Zeiten verwendet werden, indem die extrahierten Parameterwerte verglichen werden zusammen mit weiteren extrahierten Objektmerkmalen. Bei diesem Vergleich k?nnen in erster N?herung die Werte a1, a2 und a3 unberücksichtigt bleiben. Die Parameter b1, b2 und b3 kodieren Informationen über die Farbe der jeweiligen Fl?che. Anstelle b1, b2 und b3 k?nnen auch die daraus berechenbaren zugeh?rigen gen?herten RGB-Werte R(I_O_N), G(I_O_N) und B(I_O_N) oder andere Farbraumwerte wie HSV (hue, saturation, value) verwendet werden. Speziell bei der Verwendung von Gau?funktionen ist denkbar, dass in seltenen F?llen die H?he der resultierenden Gau?funktion von I_O_N null sein kann und R(I_refl_N)>R_ges, G(I_refl_N)>G_ges und B(I_refl_N)>B_ges gilt. Auftreten kann dies bei hohem Verschmutzungsgrad einer Fl?che, weil dann der Reflexionsanteil i.allg. niedriger ist als üblich. Die Farbdatenwerte werden dann gekennzeichnet als unsicher und die Hypothese ,wenig reflektierende Oberfl?che' wird gestellt. In solchen F?llen kann ein geringerer Wert für den Reflexionsanteil I_refl_N verwendet werden, z.B. indem die Funktion mit einem , der kleiner als eins ist, multipliziert wird, so dass R( positiven Vorfaktor I_refl_N) <= R_ges, G( I_refl_N) <= G_ges und B( I_refl_N) <= B_ges gilt, wobei z.B. so gew?hlt wird, dass gilt R(I_refl_N)=R ges oder G( I_refl_N)=G_ges oder B(I_refl_N)=B_ges. Dann wird I_O_N i. allg. positiv und R(L_O_N), G(I_O_N) bzw. B(I_O_N) ebenfalls. Z.B. im Farbraum HSV kann dann der Wert H (hue) als eine Sch?tzung des Farbtons verwendet werden.

In speziellen F?llen wie z.B. bei Ausbildung der Kamera 10 mit linearem Matrixsensor und/oder bei Vernachl?ssigung bestimmter Effekte vereinfachen sich obige Rechnungen z. T. deutlich.

Eine bevorzugte M?glichkeit für eine Vereinfachung der Rechnungen ist die Ausbildung der Kamera 10 derart, dass die verschiedenen Sensoren n?herungsweise auf disjunkte Frequenzb?nder sensitiv sind.

Das Verfahren kann für mehr und für weniger Frequenzkan?le eingesetzt werden. Beispielsweise kann zus?tzlich ein IR-Kanal verwendet werden. Die Anzahl der Parameter M pro Funktion kann in dem Falle z.B. als 4 gew?hlt werden, d.h. komplexere Funktionen k?nnen dann verwendet werden.

Im Stra?enverkehr ist ein Objekt 2 bei überwachung durch eine Kamera aus ausreichender H?he und bei ausreichend steilem Blickwinkel im Regelfall isoliert wahrnehmbar. Wenn ein derartiger Blickwinkel nicht erreicht werden kann, sind Situationen wie die beispielhaft in Fig. 2 dargestellte denkbar. Dort ist eine Verkehrsituation mit zwei Objekten 2, 2' dargestellt. Für gleiche Elemente wurden dabei gleiche Bezugszeichen verwendet. Der Bereich 31 der Fahrbahn wird weiterhin teilweise von der Seitenfl?che 21 des Objekts 2 in die Kamera 10 reflektiert. Dieser Bereich 31 ist jedoch für die Kamera 10 nicht sichtbar, da er von dem weiteren Objekt 2' verdeckt wird. In derartigen Situationen ist der Sensorpixelwert für den Bereich 31 nicht direkt aus dem Abbild ermittelbar. Insbesondere in solchen F?llen ist die Dachfl?che als Bereich zur Ermittlung von Sensorpixeldaten sinnvoll.

Jedoch kann in einigen derartigen F?llen dennoch die Seitenfl?che verwendet werden, n?mlich wenn die Hypothese des Bereichs 31 über die

Hypothese des Bereichs 21 in die Kamera reflektiert wird; dann kann

eine Korrektur des Reflexionsanteils durchgeführt werden, indem Sensorpixelwerte aus zeitlich benachbarten Abbildern des Bereichs 31 verwendet werden unter Berücksichtigung von Wissen über gegebenenfalls vorhandene Schattenverl?ufe. Die Detektion von Schatten kann mit bekannten Verfahren durchgeführt werden, vgl. "Untersuchungen zu einer systematischen Leistungssteigerung in der modellbasierten Bildfolgenauswertung" (H. Leuck, Berichte aus der Informatik, Shaker Verlag, Aachen 2001).

Die Wahrscheinlichkeit, dass ein reflektierter Bereich der Fahrbahn durch einen weiteren Verkehrsteilnehmer verdeckt wird, sinkt, je n?her der Bereich am Fahrzeug liegt. N?her am Fahrzeug liegende Stra?enbereiche werden im Regelfall im unteren Teil der Seitenfl?che 21 reflektiert. In derartigen F?llen kann der betrachtete Abschnitt der Seitenfl?che 21 auf einen unteren Abschnitt beschr?nkt werden bzw. die Dachfl?che 22 verwendet werden. Bei Verwendung der Dachfl?che wird berücksichtigt, dass Dachluken im vorderen Teil vorhanden sein k?nnen. Für die entsprechenden Bereiche der Dachhypothese - unter Berücksichtigung einer üblichen, leicht konvexen Krümmung des Daches - werden Sensorpixelwerte extrahiert.

Die Qualit?t des über eine Fl?che gemittelten Sensorpixelwertes sinkt leicht mit abnehmender Fl?che. Ein zu kleiner Bereich führt z.B. in seltenen F?llen aufgrund von mit Mustern verzierten Seitenfl?chen zu m?glichen Fehlern. Ist nur ein so kleiner Bereich auswertbar, dass die Werte üblich deutliche Fehler aufweisen k?nnten, so wird ein entsprechendes Signal durch das Kamera-Rechner-System 1 generiert und diesen Daten wird in nachfolgenden Rechnungen für die Wiedererkennung ein entsprechend geringerer Zuverl?ssigkeitswert zugeordnet. Diese Daten erhalten dann eine niedrigere Gewichtung bei der Wiedererkennung, in die vorzugsweise weitere extrahierte Parameter einflie?en, wie z.B. Fahrzeugl?nge.

Es k?nnen ferner gezielt Ausschnitte aus einem reflektierten Bereich 31, wenn dieser teilweise durch Hypothesen anderer Objekte verdeckt wird, ausgespart werden.

Entspricht einer Seitenfl?che 21 aufgrund eines sehr geringen Projektionswinkels b eine zu kleine Bildfl?che und/oder weist sie aufgrund zu kleinen Projektionswinkels üblicherweise einen extrem hohen Reflexionsanteil auf, so sind andere Fl?chen, beispielsweise das Fahrzeugdach 22, für die Berechnung von Farbdatenwerten vorzuziehen. In nahezu horizontalen Fl?chen k?nnen sich bei flachem Blickwinkel der Kamera B?ume, Geb?ude, etc. widerspiegeln, deren Farbdatenwerte ebenfalls n?herungsweise gemittelt ermittelbar sind.

高效檢索全球?qū)@?/div>

專利匯是專利免費檢索,專利查詢,專利分析-國家發(fā)明專利查詢檢索分析平臺,是提供專利分析,專利查詢,專利檢索等數(shù)據(jù)服務(wù)功能的知識產(chǎn)權(quán)數(shù)據(jù)服務(wù)商。

我們的產(chǎn)品包含105個國家的1.26億組數(shù)據(jù),免費查、免費專利分析。

申請試用

分析報告

專利匯分析報告產(chǎn)品可以對行業(yè)情報數(shù)據(jù)進行梳理分析,涉及維度包括行業(yè)專利基本狀況分析、地域分析、技術(shù)分析、發(fā)明人分析、申請人分析、專利權(quán)人分析、失效分析、核心專利分析、法律分析、研發(fā)重點分析、企業(yè)專利處境分析、技術(shù)處境分析、專利壽命分析、企業(yè)定位分析、引證分析等超過60個分析角度,系統(tǒng)通過AI智能系統(tǒng)對圖表進行解讀,只需1分鐘,一鍵生成行業(yè)專利分析報告。

申請試用

QQ群二維碼
意見反饋