<br>from: <a href="http://www.directron.com/expressguide.html">http://www.directron.com/expressguide.html</a><div><br></div><div>way more than you are using.</div><div><br></div><div>in a single direction PCI-E 4x has 2000MB/s<br>
<div><br></div><div><br><div><br></div><div><br><div class="gmail_quote">On Thu, Jun 16, 2011 at 11:02 AM, Matthew Zwier <span dir="ltr">&lt;<a href="mailto:mczwier@gmail.com">mczwier@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
And by PCI I mean PCI Express.<br>
<div><div></div><div class="h5"><br>
On Thu, Jun 16, 2011 at 11:00 AM, Matthew Zwier &lt;<a href="mailto:mczwier@gmail.com">mczwier@gmail.com</a>&gt; wrote:<br>
&gt; On Wed, Jun 15, 2011 at 10:17 PM, Drew from Zhrodague<br>
&gt; &lt;<a href="mailto:drewzhrodague@zhrodague.net">drewzhrodague@zhrodague.net</a>&gt; wrote:<br>
&gt;&gt;        Shouldn&#39;t you not share controllers with other arrays, and actually use<br>
&gt;&gt; multiple controllers per array? This is how we did things back in the<br>
&gt;&gt; day with old JBOD Suns -- stripe across disks and stripe across<br>
&gt;&gt; controllers. Modern architectures turn everything on their ears, so I<br>
&gt;&gt; could be missing something.<br>
&gt;<br>
&gt; I doubt you&#39;re missing something, but we&#39;re out of slots in the<br>
&gt; server, and out of space in the rack for a new one :)  Did I mention<br>
&gt; this is a scientific computing cluster for a small research group?<br>
&gt; Funds and space are limited.  Also, I can&#39;t correlate the performance<br>
&gt; drop to a specific load on the other array.<br>
&gt;<br>
&gt;&gt;        If it helps, I&#39;ve found that a straight scp in Amazon&#39;s cloud is faster<br>
&gt;&gt; than an scp -C or compressed rsync. The results may be different with a<br>
&gt;&gt; hardware environment, but testing is the only way to be sure.<br>
&gt;<br>
&gt; Yeah, tested this yesterday.  Compression slows things down<br>
&gt; considerably, Enumerating files (rsync) slows things down to kilobytes<br>
&gt; per second.  A typical user has a million or so tiny files and a few<br>
&gt; hundred (10 GB - 200 GB) very large files.  xfsdump over an<br>
&gt; uncompressed ssh connection appears the way to go.<br>
&gt;<br>
&gt; Interestingly, piping things through bar to measure throughput seems<br>
&gt; to slow things down a *lot*, and in fact may be the greater reason for<br>
&gt; the intermittent throughput -- I&#39;m sustaining 4 MB/s - 50 MB/s,<br>
&gt; seemingly correlated to what set of files xfsdump is working on, now<br>
&gt; that I don&#39;t have bar in the pipe.  I&#39;m wondering if I need to do<br>
&gt; something *really* dumb, like xfsdump -J - | xfsrestore -J -<br>
&gt; /some/nfs/mount.  That would seem to be going through one fewer<br>
&gt; userland buffers.<br>
&gt;<br>
&gt; Hmm...what&#39;s the bandwidth of a PCI bus?<br>
&gt;<br>
&gt; MZ<br>
&gt;<br>
_______________________________________________<br>
wplug mailing list<br>
<a href="mailto:wplug@wplug.org">wplug@wplug.org</a><br>
<a href="http://www.wplug.org/mailman/listinfo/wplug" target="_blank">http://www.wplug.org/mailman/listinfo/wplug</a><br>
</div></div></blockquote></div><br></div></div></div>