<div class="gmail_quote">Hi,<br><br><div class="gmail_quote"><div class="im"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><br>
</div>This is well outside of my expertise, but your change is in opposition to how ENT[1] does it.<br>
<br>
-                       ent += prob[i] * rt_log2(1 / prob[i]);<br>
+                       ent += prob[i] * rt_log2(prob[i]);<br>
<br>
I just went back and verified and it looks like the original line is how it&#39;s done.<br>
<div><br></div></blockquote></div><div><br>I checked it out. I think rt_log(prob[i]) is the correct way to do this. It is the sum over entire alphabat, probability multiplied by log of probablity: <a href="http://en.wikipedia.org/wiki/Entropy_%28information_theory%29#Definition" target="_blank">http://en.wikipedia.org/wiki/Entropy_%28information_theory%29#Definition</a><br>

<br> </div><div class="im"><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204, 204, 204);padding-left:1ex"><div>

</div>I would rather not integrate this.  My suggestion would be to trim the string with the sub_bytes BiF before passing it to the find_entropy function.<br></blockquote></div></div><br>I see, thanks for pointing that out, just started scripting. :)<br>

<br>-<br><font color="#888888"><br>rakesh<br>
</font></div><br>