Adaptive Totzeit für Halb-/Vollbrücken

Die Überlegung überkommt einen immer dann, wenn man denkt: „Das muss doch automatisch gehen“. Um das gleichzeitige Leiten sowohl des „high-side“ als auch des „low-side“ Mosfets zu verhindern, werden für gewöhnlich die steigenden Flanken der Ansteuersignale verzögert. So hat der jeweils andere Transistor einen zeitlichen Vorsprung, damit es nicht zum „shootthrough“ kommt. Diese Einstellung kann recht empfindlich sein und wird, wenn gute Ergebnisse erzielt werden sollen, idR. manuell vorgenommen. Selbst dann aber müssen Sicherheitsabstände eingehalten werden, da Verzögerungen u.a. auch von Temperatur und sich je nach Betriebszustand verändernden Parametern abhängen.

deadtime

Klassische Einstellung der Totzeit

So kommt bei mir schnell die Idee auf, dass man die Verzögerungsnetzwerke (RC-Glieder) zugunsten von UND-Gatter entfallen lässt. Ein Eingang am Modulatorausgang, der zweite am Signal „gegenüberliegende Vgs ist unter Schwellwert“. Abgesehen, dass auch das Messen, verschieben der Spannungslevel und die Durchlaufzeit des Gatters („propagation delay“) ihre Zeit benötigen, kann man keinesfalls die Durchlaufzeit durch den Treiber-IC umgehen. Das Ergebnis ist zwar, dass es vorzüglich funktioniert, sicher das gleichzeitige Leiten verhindert und sogar gegen Fehlerzustände des Levelshifter-Flip-Flops in Treibern wirkt.

ltspice-adaptive1

Selbsteinstellende Totzeit, erster Versuch

Leider war die Gesamtdurchlaufzeit in der Simulation kaum unter 65 ns zu bekommen, durch sich also kein nennenswerter Vorteil gegenüber dem Standardvorgehen ergibt. Bei zwei Totzeiten eines 500 kHz Zyklus kommt man so auf bereits 6,5 % Totzeit. Ohne Ausgleichen durch (fehlerbehaftete) Rückkopplung bedeutet dies ebenso, dass Signale unterhalb dieser Schwelle nicht übertragen werden können. Als wäre das nicht bereits schrecklich genug, muss man zusätzlich daran denken, dass die THD deutlich erhöht wird und jede Verzögerung gleich einer Phasenverschiebung. Diese ist hier  noch unterhalb eines Grades, aber alles was die Phasenreserve verringert ist… böse! :-)

Das Ziel: minimale Totzeit, die sich selbst einstellt und dabei weitere Verzögerungen im Signalverlauf antizipieren kann. Nicht, dass es so etwas nicht bereits integriert gäbe. Micrel, Intersil und IRF bieten beispielsweise Bausteine an. Leider sind die Maximalströme der Treiber nicht das, was man sich u.U. vorstellt und vor allem werden minimale Totzeiten kaum unterhalb 50ns angegebenen. Warum?! (sollte jemand über Geeigneteres stolpern –  ich freue mich über Information.)
Die Idee ist nun, die Zeit zwischen z.B. der fallenden Flanke von Vgs_h und der steigenden von Vgs_l zu messen. Der zu Beginn des Betriebs auf „Elefantentempo“ eingestellte Totzeitgenerator wird dann nach und nach so beschleunigt, bis ein unterer Grenzwert erreicht wird. So ist man zukünftig frei bei der Wahl des Gate-Treibers und allem was danach kommt. Kein Rumschrauben nach dem Löten mehr – auf Kosten zusätzlicher Bauteile. Die Idee ist wahrscheinlich nicht bahnbrechend, aber implementiert gefunden habe ich das nach kurzer Suche nicht.

Wo war noch der Simulator? ;-)

Dieser Beitrag wurde unter Basteln abgelegt und mit , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.