<br><br>
<div><span class="gmail_quote">On 4/3/07, <b class="gmail_sendername">mathew davis</b> &lt;<a href="mailto:someoneinjapan@gmail.com">someoneinjapan@gmail.com</a>&gt; wrote:</span>
<blockquote class="gmail_quote" style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: #ccc 1px solid">
<div><span class="q">
<blockquote class="gmail_quote" style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: #ccc 1px solid"><br>To test this, we could capture and share some raw (time,x,y) event<br>streams from a touch screen, and try processing them offline. Then we 
<br>don&#39;t need actual hardware (a spreadsheet is may even be good enough)<br>to figure out algorithms.</blockquote>
<div>&nbsp;</div></span>
<div>I agree I think this would be very benificial.&nbsp; This would give us a little more to chew on then speculation.&nbsp; Then we could use numbers instead of ambigious scenarious.&nbsp; Do you have some raw (time,x,y) event stream data?&nbsp; I would be very interested in looking at it.&nbsp; If not then who would have it?&nbsp; Or I guess I should say who would be willing to do that? 
</div><br>&nbsp;</div></blockquote></div><br>