<span class="gmail_quote"></span><span class="q">On 7/8/07, <b class="gmail_sendername">Paul Querna</b> &lt;<a href="mailto:chip@corelands.com" target="_blank" onclick="return top.js.OpenExtLink(window,event,this)">chip@corelands.com
</a>&gt; wrote:</span><div><span class="gmail_quote"></span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><span class="q">
<span>On 7/7/07, <b class="gmail_sendername">Steve Grimm</b> &lt;<a href="mailto:sgrimm@facebook.com" target="_blank" onclick="return top.js.OpenExtLink(window,event,this)">sgrimm@facebook.com</a>&gt; wrote:</span>
</span><span class="q"><div><span><span class="gmail_quote"></span></span><span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Obviously both can be supported. But it&#39;s something to be aware of: sending
<br>
the server a bunch of commands that take even more time than the current<br>protocol&#39;s to parse will probably have a much bigger than expected negative<br>impact on memcached&#39;s CPU efficiency.</blockquote></span>

<div><br>
In general, I disagree -- I don&#39;t like having multiple protocol interfaces to one thing like memcached -- all it means is various clients will only implement one of X possible protocol formats, all with different feature sets, creating a massive mess on the client side of memcached, something that isn&#39;t often discussed here.
</div></div></span></blockquote><div><br>I think protocol flexibility allows clients with simple requirements to dumb down for speed and smarten up for new capabilities. I&#39;d prefer to see &quot;basic memcached&quot; remain available for the applications that require&nbsp; the existing high-throughput/low-overhead usage. There will always be cases where response times exceeding 10ms is
unacceptable and nothing fancy is required wrt to maintenance of the
cache. That said, the other cases  where more complicated cache mgt semantics are required (iterating through keys, cache entry evisceration en mass with namespaces, tags, etc) should be accounted for. HTTP makes a lot of sense (stateless, extensible, if the shoe fits...), there are applications where it&#39;s perfectly OK for the cache to have 50ms response times. Particularly where it&#39;s still order/s of magnitude faster than an RDBMS, lower throughput is an acceptable price to pay for having sophisticated cache management. From what I reckon, greater protocol complexity has Moore&#39;s Law (even if it is slowing down) on its side.
<br><br>Anyway, it seems like there are lot of great issues brought up by these discussions:<br>* different levels of complexity in cache metrics and/or mgt<br>* protocol flexibility to account for the complexity levels above
<br>

* storage back-end flexibility<br>* for persistent stores, distributed key/value pairs that aren&#39;t just caches but *are* the durable stores of data<br>* client issues and making them server-issues (re-hash policies, store redundancy, etc)
<br>

<br>I&#39;m thinking that these discussions are leading to the design of a data store server toolkit , reminiscent of the NCSA server patches leading to Apache. Perhaps it makes sense to form a memcached foundation that can take code donations; hopefully without all of the pomp, circumstance and politics of the ASF. I dunno, maybe all of the ASF stuff is inevitable, it&#39;s something to think about as well. I won&#39;t be there Monday (no OSCON this year either, too busy) but Josh will be, he&#39;ll speak for (and code better than) me :)
<br>-Ian<br></div></div>